Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 82920 dokumen yang sesuai dengan query
cover
Fikri Aufaa Zain
"Dalam beberapa tahun terakhir, teknologi chatbot telah berkembang secara signifikan, dengan munculnya Large Language Model (LLM) seperti GPT dari OpenAI, Llama dari Meta, dan Gemini dari Google. Penelitian ini mengeksplorasi penerapan chatbot berbasis LLM dalam dunia medis, khususnya untuk membantu dan memantau pasien hemodialisis. Menggunakan kerangka kerja seperti LangChain untuk melakukan prompt engineering, Retrieval Augmented Generation (RAG) untuk meningkatkan pengetahuan domain, dan Chroma sebagai vector database, platform chatbot berbasis web dikembangkan. Pendekatan ReAct dan chain-of-thought (CoT) diterapkan untuk membuat sistem berbasis agen. Evaluasi kuantitatif dari penelitian ini akan menggunakan ROUGE, BLEU, dan SAS untuk sistem chatbot, dan MAP@3, dan MRR@3 digunakan untuk sistem RAG, bersama dengan penilaian kualitatif oleh ahli di bidang hemodialisis. Secara keseluruhan, evaluasi kualitatif dan kuantitatif untuk setiap sistem menerima umpan balik positif berdasarkan penilaian ahli dan hasil dari setiap metrik, yang menunjukkan bahwa kedua sistem berkinerja baik dalam menghasilkan tanggapan yang selaras dengan tujuan penelitian ini, yaitu memberikan tanggapan yang akurat dan membantu dalam memantau pasien. Dari sisi sistem, kemampuan chatbot dan sistem RAG dalam memahami konteks percakapan dan memberikan tanggapan yang lebih relevan dan informatif, menggunakan pendekatan berbasis agen yang ditingkatkan oleh RAG, memberikan keuntungan yang signifikan. Prompt yang kami gunakan, ReAct dan CoT, memungkinkan agen berbasis LLM untuk berpikir lebih efektif, membuat keputusan yang tepat, dan mensimulasikan proses berpikir yang lebih terstruktur dan logis. Dengan memanfaatkan peningkatan ini, chatbot juga dapat menghasilkan pesan urgensi medis untuk memperingatkan tim medis yang terhubung ke platform. Hal ini memungkinkan mereka untuk merespons keadaan darurat ketika pasien melaporkan gejala yang membutuhkan perawatan lebih lanjut di rumah sakit. Penelitian ini telah menunjukkan bahwa LLM dapat digunakan secara efektif sebagai chatbot di bidang kesehatan, khususnya untuk memantau pasien hemodialisis.

In recent years, chatbot technology has advanced significantly, with the rise of Large Language Models (LLMs) such as OpenAI’s GPT, Meta’s Llama, and Google’s Gemini. This research explores the application of LLM-based chatbots in healthcare, specifically for assisting and monitoring hemodialysis patients. Using frameworks like LangChain for prompt engineering, Retrieval Augmented Generation (RAG) for enhanced domain knowledge, and Chroma as a vector database, a web-based chatbot platform was developed. The ReAct and chain-of-thought (CoT) approaches were applied to create an agent-based system. The quantitative evaluation of this research will use ROUGE, BLEU, and SAS for the chatbot system, and MAP@3, and MRR@3 were used for the RAG systems, along with qualitative expert assessments. Overall, the qualitative and quantitative evaluations for each system received positive feedback based on expert judgment and the results of each metrics, indicating that both systems performed well in generating responses aligned with the goals of this research, which are to provide accurate responses and assist in monitoring patients. On the system side, the chatbot and RAG system’s ability to understand conversational context and provide more relevant and informative responses, using agent-based approaches enhanced by RAG, offers a clear advantage. The prompts we are using, ReAct and CoT, enable the agent-based LLM to think more effectively, make appropriate decisions, and simulate a more structured and logical thought process. By utilizing these enhancements, the chatbot can also generate medical urgency message to alert medical teams connected to the platform. This allows them to respond to emergencies when patients report symptoms that require further care at a hospital. This research has demonstrated that LLMs can be effectively utilized as chatbots in the healthcare field, specifically for monitoring hemodialysis patients."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adhin Abdallah Muhammad Sidik
"Dalam beberapa tahun terakhir, teknologi chatbot telah berkembang secara signifikan, dengan munculnya Large Language Model (LLM) seperti GPT dari OpenAI, Llama dari Meta, dan Gemini dari Google. Penelitian ini mengeksplorasi penerapan chatbot berbasis LLM dalam dunia medis, khususnya untuk membantu dan memantau pasien hemodialisis. Menggunakan kerangka kerja seperti LangChain untuk melakukan prompt engineering, Retrieval Augmented Generation (RAG) untuk meningkatkan pengetahuan domain, dan Chroma sebagai vector database, platform chatbot berbasis web dikembangkan. Pendekatan ReAct dan chain-of-thought (CoT) diterapkan untuk membuat sistem berbasis agen. Evaluasi kuantitatif dari penelitian ini akan menggunakan ROUGE, BLEU, dan SAS untuk sistem chatbot, dan MAP@3, dan MRR@3 digunakan untuk sistem RAG, bersama dengan penilaian kualitatif oleh ahli di bidang hemodialisis. Secara keseluruhan, evaluasi kualitatif dan kuantitatif untuk setiap sistem menerima umpan balik positif berdasarkan penilaian ahli dan hasil dari setiap metrik, yang menunjukkan bahwa kedua sistem berkinerja baik dalam menghasilkan tanggapan yang selaras dengan tujuan penelitian ini, yaitu memberikan tanggapan yang akurat dan membantu dalam memantau pasien. Dari sisi sistem, kemampuan chatbot dan sistem RAG dalam memahami konteks percakapan dan memberikan tanggapan yang lebih relevan dan informatif, menggunakan pendekatan berbasis agen yang ditingkatkan oleh RAG, memberikan keuntungan yang signifikan. Prompt yang kami gunakan, ReAct dan CoT, memungkinkan agen berbasis LLM untuk berpikir lebih efektif, membuat keputusan yang tepat, dan mensimulasikan proses berpikir yang lebih terstruktur dan logis. Dengan memanfaatkan peningkatan ini, chatbot juga dapat menghasilkan pesan urgensi medis untuk memperingatkan tim medis yang terhubung ke platform. Hal ini memungkinkan mereka untuk merespons keadaan darurat ketika pasien melaporkan gejala yang membutuhkan perawatan lebih lanjut di rumah sakit. Penelitian ini telah menunjukkan bahwa LLM dapat digunakan secara efektif sebagai chatbot di bidang kesehatan, khususnya untuk memantau pasien hemodialisis.

In recent years, chatbot technology has advanced significantly, with the rise of Large Language Models (LLMs) such as OpenAI’s GPT, Meta’s Llama, and Google’s Gemini. This research explores the application of LLM-based chatbots in healthcare, specifically for assisting and monitoring hemodialysis patients. Using frameworks like LangChain for prompt engineering, Retrieval Augmented Generation (RAG) for enhanced domain knowledge, and Chroma as a vector database, a web-based chatbot platform was developed. The ReAct and chain-of-thought (CoT) approaches were applied to create an agent-based system. The quantitative evaluation of this research will use ROUGE, BLEU, and SAS for the chatbot system, and MAP@3, and MRR@3 were used for the RAG systems, along with qualitative expert assessments. Overall, the qualitative and quantitative evaluations for each system received positive feedback based on expert judgment and the results of each metrics, indicating that both systems performed well in generating responses aligned with the goals of this research, which are to provide accurate responses and assist in monitoring patients. On the system side, the chatbot and RAG system’s ability to understand conversational context and provide more relevant and informative responses, using agent-based approaches enhanced by RAG, offers a clear advantage. The prompts we are using, ReAct and CoT, enable the agent-based LLM to think more effectively, make appropriate decisions, and simulate a more structured and logical thought process. By utilizing these enhancements, the chatbot can also generate medical urgency message to alert medical teams connected to the platform. This allows them to respond to emergencies when patients report symptoms that require further care at a hospital. This research has demonstrated that LLMs can be effectively utilized as chatbots in the healthcare field, specifically for monitoring hemodialysis patients."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Naufal Faza
"Penelitian ini bertujuan untuk mengembangkan sistem chatbot yang mampu menjawab pertanyaan seputar akademik Teknik Komputer UI. Sistem ini memanfaatkan teknologi Large Language Model (LLM) Komodo-7B yang telah di-fine-tuning dengan teknik Low-Rank Adaptation (LoRA) dan diintegrasikan dengan Retrieval Augmented Generation (RAG). Dataset Ultrachat yang diterjemahkan ke Bahasa Indonesia digunakan untuk fine-tuning model Komodo-7B, sementara dokumen PDF Kurikulum Teknik Komputer UI 2020 v4 digunakan sebagai sumber informasi untuk model RAG.
Pengujian performa model Komodo-7B menunjukkan bahwa LoRA efektif dalam meningkatkan kemampuan model dalam memahami dan menghasilkan teks percakapan Bahasa Indonesia. Namun, pengujian performa chatbot menggunakan dua dataset pertanyaan, yaitu dataset custom yang dihasilkan menggunakan Giskard dan API ChatGPT, dan dataset Fathurrahman Irwansa yang telah diadaptasi, menunjukkan bahwa sistem chatbot masih memiliki ruang untuk peningkatan. Tingkat akurasi yang rendah pada kedua dataset (32% pada dataset custom dan 24,1% pada dataset Fathur) mengindikasikan bahwa sistem retrieval yang digunakan kurang akurat dalam menemukan konteks yang relevan. Meskipun demikian, ketika model RAG dapat mengambil konteks yang relevan, model Komodo-7B menunjukkan akurasi yang cukup tinggi (80% pada dataset custom dan 91,29% pada dataset Fathur, dihitung dari jumlah ketika kedua Komodo-7B dan konteks benar, kemudian dibagi dengan jumlah ketika konteks benar).
Hasil penelitian menunjukkan bahwa model Komodo-7B memiliki potensi yang baik untuk digunakan pada sistem chatbot jika dikombinasikan dengan sistem retrieval yang lebih akurat. Penelitian ini memberikan kontribusi dalam pengembangan sistem chatbot berbasis LLM untuk menjawab pertanyaan seputar akademik, dan membuka peluang untuk penggunaan yang lebih luas di lingkungan Universitas Indonesia.

This research aims to develop a chatbot system capable of answering questions regarding the academic curriculum of Computer Engineering at Universitas Indonesia. The system utilizes the Komodo-7B Large Language Model (LLM), fine-tuned with Low-Rank Adaptation (LoRA) and integrated with Retrieval Augmented Generation (RAG). The Ultrachat dataset, translated into Indonesian, is used for fine-tuning the Komodo-7B model, while the 2020 v4 Computer Engineering Curriculum PDF document serves as the information source for the RAG model. Performance evaluation of the Komodo-7B model demonstrates that LoRA effectively enhances the model's ability to understand and generate Indonesian text. However, chatbot performance testing using two question datasets, a custom dataset generated using Giskard and the ChatGPT API, and the Fathur dataset adapted from prior research, reveals that the chatbot system still has room for improvement. The low accuracy on both datasets (32% on the custom dataset and 24.1% on the Fathur dataset) indicates that the retrieval system employed is not sufficiently accurate in finding relevant context. Nevertheless, when the RAG model successfully identifies relevant context, the Komodo-7B model exhibits relatively high accuracy (80% on the custom dataset and 91.29% on the Fathur dataset, calculated from the total of when Komodo-7B and the context are both correct, then divided by the total of when the context is correct). The research findings suggest that the Komodo-7B model holds significant potential for chatbot systems when combined with a more accurate retrieval system. This study contributes to the development of LLM-based chatbot systems for answering academic-related questions and opens up opportunities for broader applications within Universitas Indonesia."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Hanif Pramudya Zamzami
"Penalaran deduktif adalah suatu metode berpikir logis di mana seseorang menarik kesimpulan spesifik (hipotesis) berdasarkan premis atau pernyataan umum yang dianggap benar dengan menerapkan aturan inferensi logika. Aturan inferensi logika adalah prinsip-prinsip logika yang memungkinkan seseorang untuk mengambil hipotesis yang absah dari premis yang diberikan. Meskipun penalaran deduktif memiliki keunggulan pada penalaran yang absah, manusia cenderung membuat kesalahan dalam bernalar deduktif. Salah satu model bahasa untuk penalaran deduktif adalah Natural Logic (NatLog), yaitu model berbasis machine learning yang dilatih untuk melakukan klasifikasi kelas dari hubungan persyaratan antar kalimat. Namun, model memiliki keterbatasan pada rentang kalimat yang panjang. Di sisi lain, Large Language Model (LLM) seperti Generative Pre-trained Transformer (GPT) telah menunjukkan performa yang baik dalam tugas penalaran deduktif, terutama dengan menggunakan metode Chain of Thought (CoT). Namun, metode CoT masih menimbulkan masalah halusinasi dan inkonsistensi dari langkah perantaranya, yang berujung pada konklusi akhir yang tidak absah. Metode Chain of Thought - Self-Consistency (CoT-SC) merupakan pengembangan dari metode CoT yang bertujuan untuk meningkatkan kemampuan penalaran pada LLM. Dalam metode CoT-SC, CoT dijalankan beberapa kali untuk menghasilkan beberapa sampel jawaban. Setelah itu, dilakukan operasi modus, yaitu pemilihan jawaban yang paling sering muncul di antara sampel-sampel yang dihasilkan, untuk menentukan jawaban akhir. Jawaban dengan frekuensi kemunculan terbanyak dianggap sebagai jawaban yang paling konsisten dan akurat. Tujuan dari penelitian ini adalah untuk mengimplementasikan dan menganalisis kemampuan metode CoT-SC pada model GPT dalam menyelesaikan tugas penalaran deduktif. Penelitian ini akan mengevaluasi kemampuan penalaran deduktif pada model GPT menggunakan tiga sumber data yang merepresentasikan tiga domain tugas penalaran deduktif yang berbeda, yaitu ProntoQA, ProofWriter, dan FOLIO. Setelah itu, akan dilakukan analisis perbandingan performa LLM berbasis metode CoT-SC dengan manusia dalam menyelesaikan tugas penalaran deduktif. Hasil penelitian menunjukkan bahwa metode CoT-SC menunjukkan performa akurasi yang baik dalam mayoritas tugas penalaran deduktif serta LLM GPT dengan metode CoT-SC mengungguli 1 dari 3 domain tugas penalaran deduktif. Hasil ini menunjukkan model GPT berbasis metode CoT-SC memiliki potensi dalam tugas penalaran deduktif.

Deductive reasoning is a method of logical thinking in which one draws specific conclusions (hypotheses) based on general premises or statements that are considered true by applying the rules of logical inference. Rules of logical inference are principles of logic that allow one to derive valid hypotheses from given premises. Although deductive reasoning has the advantage of valid reasoning, humans tend to make mistakes in deductive reasoning. One of the language models for deductive reasoning is Natural Logic (NatLog), which is a machine learning-based model trained to perform class classification of conditional relations between sentences. However, the model has limitations on long sentence ranges. On the other hand, Large Language Models (LLMs) such as Generative Pre-trained Transformer (GPT) have shown good performance in deductive reasoning tasks, especially by using the Chain of Thought (CoT) method. However, the CoT method still raises the problem of hallucinations and inconsistencies of the intermediate steps, leading to invalid final conclusions. The Chain of Thought - Self-Consistency (CoT-SC) method is a development of the CoT method that aims to improve reasoning ability in LLM. In the CoT-SC method, CoT is run several times to produce several sample answers. After that, a mode operation is performed, which is the selection of the most frequently occurring answer among the generated samples, to determine the final answer. The answer with the highest frequency of occurrence is considered the most consistent and accurate answer. The purpose of this study is to implement and analyze the ability of the CoT-SC method on the GPT model in solving deductive reasoning tasks. This study will evaluate the deductive reasoning ability of the GPT model using three data sources representing three different deductive reasoning task domains, namely ProntoQA, ProofWriter, and FOLIO. After that, a comparative analysis of the performance of LLM based on the CoT-SC method with humans in solving deductive reasoning tasks. These results indicate the GPT model based on the CoT-SC method has a potential in deductive reasoning tasks."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fransisco William Sudianto
"Perkembangan LargeLanguageModel (LLM) terjadisecaracepatdanmengalami kemajuanyangsignifikan.HalinimendorongpenggunaandanpemanfaatanLLM pada berbagaibidang.Disisilain, KnowledgeGraph (KG) menyediakancarayang terstruktur danbermaknauntukmenyimpaninformasi.KGsudahbanyakdigunakan secara luasdiberbagaiaplikasi,sepertimesinpencari,sistemrekomendasi,dansistem penjawabpertanyaan.SalahsatupemanfaatanLLMdanKGyangmasihjarangadalah pada bidangjurnalistik,khususnyauntukmenganalisisdanmemvisualisasikanberita. Penelitian inibertujuanuntukmengembangkanalatekstraksiinformasiyangefisien, akurat, daninteraktifuntukmenganalisisteksberitamenggunakanpendekatangabungan antara LLMdanKG.Metodeinimenggabungkankeunggulankeduatekniktersebut untuk meningkatkanpemahamandanekstraksiinformasidariteksberitayangkompleks. Tujuannyaadalahagarpembacadapatmemahamiinformasiyangterdapatpadateks berita denganlebihinteraktif.PenulismemanfaatkanLLMyangtelahterlatihsecara luas dalammemahamidanmenghasilkanteksuntukmengidentifikasiinformasipenting dalam teksberita,sepertientitas,sentimen,kutipan,relasiantarentitas,danunsur5W1H (Who, What, Where, When, Why, How), urutankronologiskejadian,danhubungan bagian-keseluruhan(mereology) dalamteksberita.Untukmengekstraksiinformasiterse- but, prompt dimodifikasi denganmenggunakanpendekatan one-shot-prompting untuk memberikan konteksdancontohkepadaLLMdalammemahamiteksberita.Kemudian, informasi yangdiekstraksidivisualisasikandalambentukKGyangmerepresentasikan pengetahuan terstrukturtentangentitasdanhubungannyadidalamteks.Selainitu, penelitian melibatkanpembuatansebuahwebsiteyangakanmenyediakanantarmuka untuk sistemagarpenggunadapatmelakukananalisisteksberitasecaralangsungdan interaktif. Evaluasiutamayangdilakukanpadapenelitianiniadalahmengukurakurasi jawabanyangdihasilkanolehLLMpadasetiapbagianinformasiyangdiekstraksi dan bagaimanavisualisasiKGyangbaikuntukinformasiyangdidapat.Penelitianini menunjukkan bahwaLLMmampumengekstraksiinformasiyangdiinginkandengan cukup akuratdanvisualisasiKGdapatmenyajikaninformasidenganlebihinteraktif dan mudahdimengerti.PenelitianinitelahmenunjukkanbahwaLLMdanKGdapat dimanfaatkansebagaialatekstraksidanvisualisasiinformasiyangadapadateksberita.

The developmentoftheLargeLanguageModel(LLM)israpidlyoccurringandex- periencing significantprogress.ThisencouragestheuseandutilizationofLLMin variousfields.Ontheotherhand,KnowledgeGraph(KG)providesastructuredand meaningful waytostoreinformation.KGhasbeenwidelyusedinvariousapplications, such assearchengines,recommendationsystems,andquestionansweringsystems. One utilizationofLLMandKGthatisstillrarelyusedisinthefieldofjournalism, especially foranalyzingandvisualizingnews.Thisresearchaimstodevelopaneffective, interactive,andaccurateinformationextractiontoolforanalyzingnewstextsusing a combinedapproachbetweenLLMandKG.Thismethodcombinestheadvantages of bothtechniquestoimprovetheunderstandingandextractionofinformationfrom complexnewstexts.Thegoalisforreaderstounderstandtheinformationcontainedin the newstextinteractively.TheauthorutilizesLLMswhohavebeenextensivelytrained in understandingandgeneratingtextstoidentifyimportantinformationinnewstexts, such asentities,sentiments,quotes,relationsbetweenentities,and5W1H(Who,What, Where, When,Why,How),chronologicalorderofevents,andpart-wholerelationships (mereology) elementsinnewstexts.Toextractthatinformation,thepromptwasmodified by usingaone-shot-promptingapproachtoprovidecontextandexamplestoLLMsin understanding thenewstext.Then,theextractedinformationisusedtobuildaKGthat represents structuredknowledgeaboutentitiesandrelationshipsinthetext.Inaddition, the developmentplaninvolvescreatingawebsitethatwillprovideaninterfaceforthis system toallowuserstoperformliveandinteractivenewstextanalysis.Themain evaluationconductedinthisresearchistomeasuretheaccuracyoftheanswersgenerated by LLMoneachpieceofinformationextractedandhowgoodKGvisualizationisfor the informationobtained.ThisresearchshowsthatLLMisabletoextractthedesired information quiteaccuratelyandKGvisualizationcanpresentinformationinamore interactiveandeasytounderstandmanner.ThisresearchhasshownthatLLMandKG can beusedasinformationextractionandvisualizationtoolsinnewstexts."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Mikail Fauzan Athallah
"Penelitian ini menyelidiki integrasi Unreal Engine 5 dengan teknologi AI canggih, OpenAI dan ElevenLabs, untuk meningkatkan interaksi manusia-komputer melalui pembuatan gerakan berbasis aturan pada agen virtual. Penggunaan Unreal Engine 5 memungkinkan penciptaan lingkungan virtual beresolusi tinggi, yang sangat penting untuk interaksi agen yang realistis. Pengembangan sistem berbasis aturan sederhana yang mensintesis gerakan berdasarkan aturan yang telah ditentukan yang selaras dengan input yang diucapkan, dinilai dengan model lainnya. Sebuah studi komparatif, yang terinspirasi oleh Tantangan GENEA 2022, dilakukan untuk menilai efektivitas sistem yang diusulkan. Studi ini melibatkan studi pengguna di mana para partisipan menilai kemiripan manusia dan kesesuaian gerakan yang dihasilkan oleh sistem dengan model berbasis aturan, sistem model acak, model ground truth, dan model idle. Studi ini menggunakan model agen virtual yang sama untuk memastikan kondisi visual dan auditori yang konsisten di semua skenario pengujian. Temuan ini menunjukkan bahwa pembuatan gerakan berbasis aturan secara signifikan meningkatkan kealamian dan kontekstualitas interaksi agen virtual dibandingkan dengan 3 metode generasi gerakan lainnya. Hal ini mendukung potensi pendekatan terstruktur dalam menghasilkan interaksi yang lebih menarik dan realistis dalam lingkungan virtual. Penelitian ini diharapkan dapat memberikan kontribusi pada bidang desain agen virtual, dengan menekankan pentingnya mengintegrasikan teknik-teknik berbasis AI yang canggih untuk meningkatkan kualitas interaksi manusia-komputer.

This research investigates the integration of Unreal Engine 5 with advanced AI technologies, OpenAI and ElevenLabs, to enhance human-computer interaction through rule-based gesture generation on a virtual agent. Employing Unreal Engine 5 enables the creation of high-fidelity virtual environments, crucial for realistic agent interactions. The development of a simple rule-based system that synthesizes gestures based on predefined rules aligned with spoken inputs, is assessed against different models. A comparative study, inspired by the GENEA Challenge 2022, was conducted to evaluate the effectiveness of the proposed system. This involved a user study where participants rated the human likeness and appropriateness of gestures generated by rule-based, randomized systems, ground truth, and idle. The study utilized the same virtual agent model to ensure consistent visual and auditory conditions across all test scenarios. The findings demonstrated that rule-based gesture generation significantly enhances the perceived naturalness and contextuality of virtual agent interactions compared to the other 3 methods of gesture generation. This supports the potential of structured approaches in producing more engaging and realistic interactions in virtual environments. The research hopes to contribute to the field of virtual agent design, emphasizing the importance of integrating sophisticated AI-driven techniques to improve the quality of human-computer interaction."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Renard Cheng
"Pada relita dunia manufaktur yang ada pada zaman sekarang, seringkali terdapat permasalahan antara pembuatan urutan proses dan penyampaian informasi bagaimana suatu produk dibuat. Terlebih lagi, bagaimana caranya suatu ruang kerja entah itu pabrik atau apapun, dapat dievaluasi dengan mendalam sebelum dibangun? Perlakuan evaluasi atau tata ulang suatu ruang kerja dapat memakan biaya dan waktu yang seharusnya dapat dihidari. Dengan memanfaatkan sejumlah teknologi yang ada zaman sekarang, ditawarkan suatu konsep model terintegrasi di mana kita dapat merasakan berada di suatu ruang kerja yang seluruhnya adalah virtual. Virtual Reality, membuat kita dapat mengevaluasi dan mendapat informasi cara suatu proses produksi berjalan, tanpa biaya pembangunan dan evaluasi yang merugikan. Sebuah model yang mencakup semua kebutuhan pun akan dikembangkan dan dilakukan dengan berdasarkan pemilihan teknologi yang ada, dari environment yang digunakan, display yang digunakan, hingga perangkat keras untuk memanipulasi dunia virtual juga menjadi parameter yang penting sehingga pada akhirnya menghasilkan suatu model terintegrasi yang sesuai dengan kebutuhan. Adapun setelah serangkaian tahapan pengembangan, model yang dipakai melibatkan Model Pabrik 3D, LCD Projector, software Autodesk Inventor® dan Autodesk Showcase®, Motion Glove; dan diperkuat dengan perbandingan dengan model lain sehingga terbukti bahwa model yang dikembangkan memiliki harga yang cukup bersaing dengan model lain.

In manufacturing world nowadays, it is often found a problem in communicating information or simulating about how a product is made. Moreover, how to evaluate a working station, for example in a factory, before the actual factory is built? Evaluation or re-positioning a working station could take a lot of time and cost, when it is actually can be avoided. By integrating several technologies available today, an integrated model where we can feel being in a totally virtual working station, is possible to be made. Virtual Reality, the way we can understand and evaluate a production process, without any unnecessary cost. A model which includes every need is developed based on the selection from several technologies, from environment being used, the diplay devices, even the hardware to manipulate virtual objects is also an important parameter to be considered in developing the right model for the right need. Furthermore, in the end of the development, it is concluded that the model developed includes 3D Factory Model, LCD Projector, Motion Glove, Autodesk Inventor® and Autodesk Showcase®; and the model is compared to another model in the end to prove that the model developed is affordable compared to similar model."
Depok: Fakultas Teknik Universitas Indonesia, 2014
S58901
UI - Skripsi Membership  Universitas Indonesia Library
cover
Gemma Retal Ananda
"Penelitian ini membahas tentang pengembangan sistem panduan dan pemantauan perangkat berbasis teknologi Augmented Reality pada pembangkit listrik virtual. Augmented Reality mengimplementasikan sistem real time pada sistem pemantauan untuk setiap perangkat pembangkit listrik, dengan menggunakan 3D model sebagai penggambaran dari perangkat-perangkat tersebut dan menggunakan sistem berbasis marker untuk memunculkannya. Pengguna dapat memahami panduan untuk mengatasi kerusakan dan melihat kondisi perangkat pembangkit listrik virtual secara real time dalam bentuk yang menarik dan mudah untuk dimengerti oleh orang awam. Pengembangan aplikasi Augmented Reality menggunakan software Unity3D dan Vuforia SDK. Pembuatan model 3D dari setiap perangkat pembangkit listrik virtual yang akan digunakan sebagai model Augmented Reality menggunakan software Inventor dan Blender untuk shading dari model tersebut. Performa waktu respons pada menu Augmented Reality berbanding lurus dengan tingkat spesifikasi perangkat yang digunakan, yang akan semakin baik jika spesifikasi dari perangkat tinggi. Berdasarkan hasil pengujian kuantitatif (usability testing), pengguna setuju bahwa aplikasi yang dibuat memuaskan dalam segi fungsi sistem dan antarmuka. Hal ini ditunjukkan dalam nilai yang diperoleh, yakni untuk sistem dari aplikasi sebesar 4,046 dan untuk antarmuka dari aplikasi sebesar 4,015 dari skala 5.

This research discusses the development of guidance and monitoring systems based on augmented reality technology on virtual power plants. Augmented reality implements a real time system as a monitoring system for each power generation device, using a 3D model as a representation of these devices and using a marker system to bring it up into real world. Users can understand the guidelines for dealing with damage and see the condition of virtual power plant devices in real time in an interesting and easy way to understand for common people. Application developed using Unity3D software and Vuforia SDK. Augmented Reality for virtual power plant devices created using Inventor software for created 3D models and Blender software for shading the 3D models. The response time performance on the Augmented Reality menu is directly proportional to the level of specifications of the device used, which will be even better if the specifications of the device are high. Based on quantitative testing (usability testing) results, the user agrees that the application made is satisfactory in terms of system functions and interface. This is indicated in the value obtained, for the system function of application at 4,046 and interface of application at 4,015 from a scale of 5."
Depok: Fakultas Teknik Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Inigo Ramli
"Model bahasa dapat mempelajari struktur suatu bahasa manusia menggunakan korpus yang tidak terstruktur. Namun, model bahasa secara umum belum dapat mempelajari pengetahuan faktual yang direpresentasikan oleh knowledge graph. Terdapat beberapa usaha untuk membuat model bahasa yang dapat mempelajari pengetahuan faktual seperti KEPLER. Sayangnya, belum terdapat penelitian yang komprehensif mengenai integrasi pengetahuan faktual terhadap pelatihan model bahasa Indonesia. Penelitian ini mengajukan model bahasa Indonesia baru bernama IndoKEPLER yang melatih model bahasa Indonesia yang sudah ada dengan korpus Wikipedia Bahasa Indonesia dan memanfaatkan pengetahuan faktual dari Wikidata. Selain itu, penelitian ini juga mengajukan metode knowledge probing baru untuk menguji pemahaman faktual suatu model bahasa Indonesia. Hasil eksperimen penelitian ini menunjukkan bahwa pelatihan model IndoKEPLER dapat meningkatkan pemahaman faktual suatu model bahasa Indonesia.

Pretrained language models have the ability to learn the structural representation of a natural language by processing unstructured textual data. However, the current language model design lacks the ability to learn factual knowledge from knowledge graphs. Several attempts have been made to address this issue, such as the development of KEPLER. Unfortunately, such knowledge enhanced language model is not yet available for the Indonesian language. In this experiment, we propose IndoKEPLER: a pretrained language model trained using Wikipedia Bahasa Indonesia and Wikidata. We also create a new knowledge probing benchmark named IndoLAMA to test the ability of a language model to recall factual knowledge. This experiment shows that IndoKEPLER has a higher ability to recall factual knowledge compared to the text encoder it’s based on."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rizky Juniastiar
"Kebutuhan akan informasi yang cepat dan valid semakin mendesak di tengah arus in- formasi yang cepat. Kemajuan teknologi memberikan dampak signi kan terhadap in- dustri jurnalisme untuk mengakomodasi kebutuhan informasi tersebut. Proses produksi berita, yang tradisionalnya memakan waktu, terus dihadapkan pada tuntutan untuk meng- hasilkan informasi dengan cepat dan akurat. Penelitian ini merespon tantangan terse- but dengan melakukan pengembangan model generatif yang dapat melakukan pembuatan berita secara otomatis. Dalam pengembangan model generatif, penulis melakukan bebe- rapa skenario percobaan untuk menguji pengaruh ukuran jumlah parameter, jenis prompt- ing, dan penggunaan delimiter pada prompt yang digunakan terhadap kualitas model yang dihasilkan. Percobaan dilakukan dengan melakukan ne tuning pada dua buah large language model yang memiliki arsitektur berbeda, yaitu Falcon dan BLOOM. Pengem- bangan large language model selanjutnya dilakukan proses evaluasi dengan menggunakan metrik measurement BLEU, ROUGE, perplexity, dan human evaluation kepada wartawan terhadap berita yang dihasilkan. Hasil yang penulis dapatkan menunjukkan bahwa terda- pat beberapa aspek yang memengaruhi kualitas berita yang dihasilkan oleh model dalam proses ne tuning. Beberapa aspek tersebut di antaranya adalah ukuran jumlah parameter, jenis prompting, dan penggunaan delimiter pada prompt yang digunakan. Model terbaik yang didapatkan dari keseluruhan model percobaan adalah BLOOM dengan jumlah pa- rameter 7B yang mendapatkan hasil evaluasi ROUGE-1 sebesar 0,3856 dan perplexity sebesar 5,79809. Model ini juga dapat menghasilkan berita yang sesuai dengan kebu- tuhan wartawan dalam proses human evaluation, baik dari kesesuaian dengan kaidah ke- bahasaan dan penulisan berita maupun ketepatan berita dengan fakta sebenarnya. Model ini mendapatkan penilaian sebesar 4,25 dari 5,00 untuk kesesuaian dengan kaidah keba- hasaan dan 4,27 dari 5,00 untuk ketepatan dengan fakta sebenarnya.

The escalating need for swift and accurate information in today's dynamic information landscape poses a significant challenge. Technological advancements have profoundly impacted the journalism industry, necessitating adaptations to fulfill evolving information requirements. The traditional, time-consuming news production process is under constant pressure to deliver information swiftly and accurately. This research tackles these challenges by developing a generative model capable of automating news creation. The author explores various experimental scenarios in the generative model development, investigating the influence of parameters' quantity, prompting techniques, and the use of delimiters in prompts on the resulting model's quality. The experiments involve fine-tuning two large language models with different architectures, Falcon and BLOOM. The subsequent evaluation process utilizes metrics such as BLEU, ROUGE, perplexity, and human evaluation by journalists to assess the quality of the generated news. The findings underscore that several factors, including parameter quantity, prompting techniques, and delimiter use, impact the news model's quality during the fine-tuning process. Significantly, among the experimented models, the BLOOM model with 7B parameters emerges as the overall best performer. This model achieves a ROUGE-1 evaluation of 0.38656 and a perplexity of 5.79809. In human evaluation, the BLOOM model excels in linguistic adherence and factual accuracy, receiving ratings of 4,25 out of 5.00 and 4,27 out of 5.00, respectively."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>