Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 70818 dokumen yang sesuai dengan query
cover
Metha Ramadita
"Authorship dari suatu karya yang dapat dilindungi hak cipta telah menjadi isu yang hangat diperdebatkan. Isu tersebut semakin gencar diperbincangkan dengan munculnya kecerdasan buatan. Kemampuan dari kecerdasan buatan seperti halnya mobil yang dapat menyetir sendiri, mesin yang membuat karya kreatif, dan membuat algoritma, membuat banyak pakar, pembuat kebijkaan, dan konsumen semakin sadar akan keuntungan dan kebutuhan terhadap kecerdasan buatan ini. Kemampuan yang dimiliki oleh kecerdasan buatan ini juga membukakan fakta bahwa dalam hal membuat suatu karya, manusia bukanlah satu-satunya pencipta. Komputer dengan (terkadang tidak dengan) bantuan manusia juga dapat menciptakan karya yang bersifat artistic ataupun innovative. Berdasarkan penjelasan di atas dapat terlihat bahwa menciptakan suatu Ciptaan menggunakan subjek nonmanusia dapat memberikan implikasi yang penting bagi hukum hak cipta. Secara tradisional hak cipta dipahami untuk melindungi karya seni manusia untuk manusia. Namun dengan munculya teknologi, maka konsep ini perlu ditelaah lebih lanjut. Pemahaman yang ada pada saat ini terkait tentang Penciptaan tetap hanya dimiliki oleh manusia. Partipasi mesin pada tahap diciptakannya suatu karya seni tidak mendiskualifikasi manusia dari Pencipta, namun dengan semakin besarnya peranan subjek nonmanusia tersebut maka situasi yang semakin menjadi menantang.

Authorship of copyrightable works has been a hotly contested issue. With the recent boom of artificial intelligence, more and more creative works have been the result of non-human authors. Flashy news stories about self-driving cars, creative machines, and learning algorithms have made scholars, policy makers, and consumers more aware of both the benefits and need for AI. The recent popularization of AI has also made us aware of the fact that humans are no longer the only source of creative works. Traditionally copyright is understood to protect humans writing for humans. With the emergence of technology, this has come under scrutiny. However, there remains an understanding of authorship as profoundly human attribute. The participation of a machine in the creation of a work does not disqualify the human creator from authorship, but the greater the machine’s role, the more challenging the situation become."
Depok: Fakultas Hukum Universitas Indonesia, 2018
T52387
UI - Tesis Membership  Universitas Indonesia Library
cover
Utari Kusumawardhani
"Peningkatan popularitas dan penggunaan Artificial Intelligence (AI) dalam penciptaan karya kian ramai diperbincangkan. Mulai dari gambar, suara hingga tulisan, program AI dapat menghasilkan karya sebagaimana buatan manusia. AI bahkan mulai dicantumkan sebagai author atau co-author dalam buku dan jurnal ilmiah, yang menuai pertanyaan mengenai perlindungan hukum, pencipta dan kepemilikan hak cipta atas karya tulis yang dihasilkan AI tersebut. Setelah melakukan penelitian, ditemukan kesimpulan bahwa karya tulis yang dihasilkan AI dapat dilindungi dalam hukum hak cipta beberapa negara seperti Amerika Serikat dan Inggris dengan syarat tertentu, namun belum dilindungi di Indonesia. Aspek originality untuk perlindungan karya tulis yang dihasilkan AI terletak pada prompt dari pengguna dan/atau perubahan-perubahan yang dilakukan pengguna terhadap output dari program AI. Kemudian, pengguna yang memasukkan prompt menjadi pencipta dan pemegang hak cipta atas karya tulis yang dihasilkan AI, yang ditegaskan melalui syarat dan ketentuan program AI. Apabila karya tulis yang dihasilkan AI tidak dapat dilindungi hak cipta, maka substansinya akan sulit dilindungi dan dibuktikan kepemilikan hak ciptanya. Namun, wujud karya tulis dapat menjadi benda bergerak berwujud berupa informasi elektronik yang dilindungi dengan hak kebendaan seperti hak milik.

The increase in popularity and usage of Artificial Intelligence (AI) in creation of works are being widely discussed. From visual, musical, to written works, AI programs are capable of generating works that resemble human creations. AI is even being credited as an author or co-author in books and scientific journals, which raises questions about legal protection, authorship, and copyright ownership of the works generated by AI. After conducting research, it has been concluded that the written works generated by AI can be protected under copyright laws in certain countries, such as the United States and the United Kingdom as long as it fulfils certain conditions, but these works are not yet protected by Indonesia’s copyright law. The originality aspect for the protection of written works generated by AI lies in the prompts that the user entered and/or the changes made by the user to the output from the AI. Subsequently, the copyright of the written works produced by AI belongs to the user as an author, which is regulated by the terms and conditions of the AI program. If the written works generated by AI cannot be protected by copyright law, it will be difficult to protect its substance and to prove its copyright ownership. However, the tangible or physical form of the written works can be considered as tangible movable in form of electronic information and can be protected with property rights, such as ownership rights."
Depok: Fakultas Hukum Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Anita Desiani
Yogyakarta: Andi Yogyakarta, 2006
006.3 ANI k
Buku Teks  Universitas Indonesia Library
cover
Sardy S.
1992
LP-pdf
UI - Laporan Penelitian  Universitas Indonesia Library
cover
cover
Pradina Rachmadini
"Proyek ini bertujuan untuk menentukan peringkat tahan api dari dinding baja ringan di bawah kondisi api menggunakan aplikasi kecerdasan buatan. Dua bagian bagian saluran yang diberi lipatan (LCS) dan bagian saluran berongga flange (HFC) grade 500 dan kelas 250 disajikan dalam penelitian ini. LCS adalah jenis konvensional yang digunakan dalam bingkai baja ringan, sementara HFC memperkenalkan memiliki kinerja api yang unggul. Baru-baru ini pemodelan elemen hingga dan uji skala penuh telah digunakan untuk menentukan kinerja api dinding LSF. Meskipun demikian, pemodelan elemen hingga ditemukan memiliki prosedur yang rumit, dan uji skala penuh adalah eksperimen yang memakan waktu. Oleh karena itu, opsi alternatif sebagai pembelajaran mesin diperlukan untuk mengatasi situasi ini. Pendekatan jaringan saraf pembelajaran mesin akan diadopsi untuk melatih data. Masukan akan menjadi data aktual dari FEA dan proyek uji penuh skala sebelumnya. Temperatur dan suhu flensa dan flensa dingin seksi dari suatu bagian diperoleh sebagai input. Kapasitas pengurangan rasio bertindak sebagai output yang akan diprediksi dalam pembelajaran yang diawasi. Pelatihan dan uji coba dilakukan melalui jaringan saraf tiruan dengan menggabungkan parameter yang berbeda seperti fungsi kehilangan, menjaga faktor probabilitas, tingkat pembelajaran, jumlah lapisan, dan neuron. Rasio pengurangan kapasitas yang diperoleh dari pelatihan mesin dapat diplot dan dibandingkan keakuratannya dengan hasil FEA sebelumnya.

This project aims to determine fire resistance rating of Light Gauge Steel Frame (LSF) walls under fire condition using artificial intelligence application. Two section of lipped channel section (LCS) and hollow flange channel section (HFC) grade 500 and grade 250 is presented in this research. LCS is a conventional section used in LSF framing, while HFC introduced having superior fire performance. Recently finite element modelling and a full-scale test have been employed to determine fire performance of LSF walls. Nonetheless, finite element modelling was found to have a complicated procedure, and the full-scale test was a time-consuming experiment. Therefore, an alternative option as machine learning is necessary to overcome this situation. A neural network approach of machine learning will be adopted to train the data. The input would be the actual data from FEA and full-scale test previous project. Hot flange and cold flange temperature and dimension of a section are obtained as the input. Capacity reduction ratio act as an output that will be predicted in supervised learning. Training and testing trialare done through the artificial neural network by combining different parameters such as loss function, keep probability factor, learning rate, the number of layers, and neurons. Capacity reduction ratio attained from machine training can be plotted and compared its accuracy with previous FEA results."
Depok: Fakultas Teknik Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Kurniawan Adi Putranto
"Perkembangan teknologi komputer yang begitu pesat, mengakibatkan begitu banyaknya laptop dan PC yang beredar dipasaran. Ditambah lagi dengan makin banyaknya toko online komputer yang menawarkan harga yang bervariasi. Hal tersebut akan membuat banyak orang kesulitan dalam memilih laptop atau pun PC. Oleh sebab itu dibutuhkan sebuah search engine yang dapat membantu menentukan suatu barang yang akan dipilih. Pada Skripsi ini akan dibahas mengenai penerapan Web 3.0 pada search engine untuk toko komputer online. Search engine ini memiliki kemampuan untuk memberi masukan atau saran kepada user berdasarkan pada keyword dan user profile. Hal tersebut dapat terwujud karena adanya AI (Artificia Intelligence) yang dibuat berdasarkan pada ontologi. Ontologi disini berfungsi untuk mencari hubungan antara output yang dihasilkan berdasarkan dari keyword dan user profilenya. Output dari proses searching diharapkan dapat mendekati atau bahkan sesuai dengan keinginan user.
Pada sistem telah dilakukan pengujian perbandingan kecepatan ekstraksi data antara dua unit komputer dengan spesifikasi yang berbeda. Dimana persentase selisih waktu yang dihasilkan antara dua unit komputer tersebut dalam proses ekstraksi data mencapai 60,2%. Pengujian kecepatan proses juga diterapkan pada pencarian data dari database dengan rata-rata waktu yang dibutuhkan adalah 0.01 detik. Berdasarkan hasil survey terhadap user, dapat disimpulkan bahwa sistem ini sudah berhasil diimplementasikan dengan cukup baik karena mendapat nilai ratarata 2,4 dari nilai maksimum 3.

The development of computer technology is so rapid, that caused so many laptops and PCs in the market. Coupled with the increasing number of online computer stores that offer varying prices. This will make many people confuse in choosing a laptop or PC. Therefore needed a search engine that can help determine an item to be selected. In this Final Project will be discussed on application of Web 3.0 on the search engines for online computer store. Search engines have the ability to give input or suggestions to users based on keywords and user profiles. This can happen because of the AI (Artificia Intelligence) which is based on ontology. Ontology is used to find the relation between the output that produced on the basis of keywords and user profiles. Output from the searching process is expected to be close to or even in accordance with the wishes of users.
In comparison testing was done and the speed of extraction of data between two computers with different specifications. Where the percentage of the resulting time difference between the two computers are in the process of data extraction reached 60.2%. Testing the speed of the process is also applied to search data from a database with the average time taken is 0.01 seconds. Based on the survey results to the user, it can be concluded this system has been successfully implemented with good enough rated, because it got an average rating of 2.4 from the maximum value of 3.
"
Depok: Fakultas Teknik Universitas Indonesia, 2010
S51304
UI - Skripsi Open  Universitas Indonesia Library
cover
Lies Dina Liastuti
"Deteksi dini gagal jantung (GJ) penting untuk mengurangi angka kesakitan, kematian dan rawat ulang, terutama pada era pandemi COVID-19. Kecerdasan buatan berdasarkan data ekokardiografi berpotensi mempermudah identifikasi GJ, tetapi tingkat kesahihan belum diketahui. Oleh karena itu, dikembangkan model Learning Intelligent for Effective Sonography (LIFES) dengan metode deep learning menggunakan algoritme visual geometry group (VGG)-16 untuk menilai validitas model kecerdasan buatan dalam deteksi GJ dan membedakan jenis GJ dengan atau tanpa penurunan fraksi ejeksi ventrikel kiri (FEVKi) di berbagai alat ekokardiografi. Penelitian uji diagnostik ini menggunakan desain potong lintang yang dibagi dua fase yaitu fase pertama populasi pasien normal dan GJ dengan atau tanpa FEVKi menurun di RS Pusat Jantung Nasional Harapan Kita dan fase kedua di 10 RS jejaring pada bulan Januari 2020–Maret 2022. Pada fase pertama dilakukan analisis 141 rekaman video ekokardiografi dan fase kedua dianalisis 685 video meliputi tampilan apical 4 chamber (A4C), apical 2 chamber (A2C), dan parasternal long axis (PLAX). Dataset setiap fase dibagi untuk melatih (tahap training) dan menguji (tahap testing) model LIFES dalam membedakan dua kelas diagnosis (GJ dan individu normal) dan tiga kelas diagnosis (GJ dengan FEVKi menurun, GJ dengan FEVKi terjaga, dan individu normal). Pada fase 1 performa terbaik model LIFES dalam membedakan dua kelas ditunjukkan pada tampilan A2C dengan skor F1 0,94 dan area under the curve (AUC) 0,93. Klasifikasi tiga kelas terbaik ditunjukkan pada tampilan A2C dengan F1 0,78 dan AUC 0,83 sampai 0,92. Pada fase 2 klasifikasi dua kelas terbaik ditunjukkan oleh tampilan PLAX dengan skor F1 mencapai 0,93 dan AUC 0,91. Klasifikasi tiga kelas terbaik ditunjukkan pada tampilan PLAX dengan F1 0,82 dan AUC berkisar dari 0,91 hingga 0,94. Waktu pemrosesan model LIFES sekitar 0,15 sampai 0,19 detik untuk memprediksi satu sampel. Disimpulkan model LIFES berfungsi baik untuk deteksi dini GJ sesuai konsensus ahli, sekaligus dapat membedakan jenis GJ dengan atau tanpa FEVKi menurun pada berbagai mesin ekokardiografi.

Early detection of heart failure (HF) is important to reduce morbidity, mortality, and re-hospitalization, especially in the era of the COVID-19 pandemic. Artificial intelligence based on echocardiographic data has the potential to facilitate the identification of HF, but the level of validity is unknown. Therefore, Learning Intelligent for Effective Sonography (LIFES) model was developed with a deep learning method using the visual geometry group (VGG)-16 algorithm to assess the validity of the artificial intelligence model in the detection of HF and distinguish the type of HF with reduced ejection fraction (HFrEF) or preserved in left ventricular ejection fraction (HFpEF) in various echocardiographic devices. This diagnostic test study used a cross-sectional design, which was divided into two phases, namely the population of normal and HFrEF or HFpEF patients at the Harapan Kita National Heart Center Hospital and ten network hospitals from January 2020 to March 2022. In the first phase, 141 echocardiographic video recordings were analyzed and in the second phase, 685 videos were analyzed, including apical-4 chamber (A4C), apical-2 chamber (A2C), and parasternal-longaxis (PLAX) displays. The dataset for each phase was divided between training and testing the LIFES model in distinguishing two-diagnostic classes (HF and normal individuals) and three-diagnostic classes (HFrEF, HFpEF, and normal individuals). In phase 1, the best performance of the LIFES model in distinguishing the two classes is shown on the A2C display with an F1 score of 0.94 and an area under the curve (AUC) 0.93. The best three-class classifications are shown on the A2C display with an F1 of 0.78 and an AUC of 0.83 to 0.92. In phase 2, the best twoclass classifications are shown by the PLAX display with F1 scores reaching 0.93 and AUC 0.91. he best three-class classifications are shown on the PLAX display, with an F1 of 0.82 and an AUC ranging from 0.91 to 0.94. The
processing time of the LIFES model is about 0.15 to 0.19 seconds to predict a single sample. It is concluded that the LIFES model works well for the early detection of HF, according to expert consensus while at the same time being able to distinguish the type of HF (HFrEF or HFpEF) on various echocardiographic machines.
"
Jakarta: Fakultas Kedokteran Universitas Indonesia, 2022
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Amanda Halimi
"Latar belakang: Pasien gagal jantung sering mengalami readmisi dengan tingkat mortalitas yang tinggi sehingga diperlukan deteksi dini dan tatalaksana yang tepat untuk memperbaiki prognosis. Resiko rawat inap akibat gagal jantung bahkan lebih meningkat pada pasien diabetes mellitus (DM) tipe 2, yaitu 1.5x lebih tinggi. Menggunakan kecerdasan buatan, dapat dilakukan integrasi antara data klinis dengan pemeriksaan penunjang seperti EKG dan rontgen thorax. Selain itu, kecerdasan buatan juga dapat membantu diagnosis di bidang kardiovaskular tanpa adanya variabilitas antar pengamat, serta meningkatkan efisiensi waktu dan biaya.
Tujuan: Penelitian ini bertujuan untuk membandingkan kemampuan kecerdasan buatan dengan statistik konvensional dalam memprediksi luaran klinis lama rawat, readmisi 30 hari, mortalitas 180 hari, dan luaran gabungan pada pasien gagal jantung dekompensasi akut (GJDA) dengan penurunan fraksi ejeksi dan DM tipe 2.
Metode: Dilakukan studi kohort retrospektif terhadap pasien GJDA dengan penurunan fraksi ejeksi dan DM tipe 2 pada periode Januari 2018 – Maret 2023. Dilakukan analisis data menggunakan statistik konvensional dengan analisis bivariat dan multivariat, dimana hasilnya kemudian dibandingkan dengan analisis menggunakan algoritme kecerdasan buatan, yaitu Balanced Random Forest.
Hasil: Melalui rekam medis, didapatkan 292 subjek penelitian dengan persentase lama rawat >5 hari, readmisi 30 hari, mortalitas 180 hari, dan luaran gabungan yang diobservasi adalah 39.7%, 14.0%, 10.6%, dan 21.2% berturut-turut. Kemampuan diskriminasi kecerdasan buatan lebih baik dibandingkan statistik konvensional untuk keempat luaran, dengan AUC lama rawat >5 hari adalah 0.800 vs 0.775, readmisi 0.790 vs 0.732, mortalitas 0.794 vs 0.785, dan luaran gabungan 0.628 vs 0.596.
Kesimpulan: Kecerdasan buatan lebih baik dibandingkan statistik konvensional untuk memprediksi luaran klinis berupa lama rawat, readmisi 30 hari, mortalitas 180 hari, dan luaran gabungan pada pasien GJDA dengan penurunan fraksi ejeksi dan DM tipe 2.

Background: Heart failure patients often experience readmissions with a high mortality rate, therefore early detection and appropriate management are required to improve the prognosis. The risk of hospitalization due to heart failure is increased 1.5x in type 2 diabetes mellitus (DM) patients. Using artificial intelligence, clinical data can be integrated with supporting examinations such as ECG and chest X-ray. Artificial intelligence can also help diagnoses in the cardiovascular field without inter-observer variability, as well as increasing time and cost efficiency.
Objective: This study aims to compare the ability of conventional statistics with artificial intelligence in predicting clinical outcomes, namely length of stay, 30-day readmission, 180- day mortality, and composite outcome in acute decompensated heart failure (ADHF) patients with reduced ejection fraction and type 2 DM.
Methods: A retrospective cohort study was conducted on 292 ADHF patients with reduced ejection fraction and type 2 DM in the period January 2018 – March 2023. Data analysis was carried out using conventional statistics with bivariate and multivariate analysis, where the results were then compared with analysis using artificial intelligence algorithm, namely Balanced Random Forest.
Results: The percentages of outcomes observed for length of stay >5 days, 30 day readmission, 180 day mortality, and composite outcome were 39.7%, 14.0%, 10.6%, and 21.2% respectively. The discrimination ability of artificial intelligence was better than conventional statistics for all four outcomes, with the AUC of length of stay >5 days were 0.800 vs 0.775, readmission 0.790 vs 0.732, mortality 0.794 vs 0.785, and combined outcome 0.628 vs 0.596.
Conclusion: Artificial intelligence is better than conventional statistics in predicting clinical outcomes in the form of length of stay, 30-day readmission, 180-day mortality, and composite outcome in ADHF patients with reduced ejection fraction and type 2 DM.
"
Jakarta: Fakultas Kedokteran Universitas Indonesia, 2023
SP-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Eka Adip Pradipta
"Latar Belakang Uji latih jantung beban (ULJB) merupakan modalitas diagnostik PJKO yang telah lama digunakan. Meskipun demikian, perannya semakin semakin tergantikan oleh karena tingginya angka positif palsu, khususnya pada respons iskemik sugestif positif. Tujuan studi ini adalah untuk menyusun sebuah model algoritme prediksi menggunakan kecerdasan buatan untuk mendeteksi PJKO pada populasi respons iskemik sugestif positif.
Metode Pasien yang menjalani ULJB dengan hasil respons iskemik sugestif positif dan angiografi koroner invasif dalam rentang 1 tahun pasca ULJB diikutsertakan dalam studi ini. Populasi studi dibagi secara acak menjadi kelompok latihan (80%) dan uji (20%) untuk membuat algoritme prediktif. Total 16 dari 122 fitur yang digunakan, meliputi informasi klinis, faktor risiko dan EKG saat ULJB. Algoritme yang digunakan meliputi support vector machine, logistic regression, random forest, k-nearest neighbor, naive Bayesian, Adaboost, decision tree dan extreme gradient boosting. Hasil Sebanyak 124 dari 513 pasien dengan respons iskemik sugestif positif ikutserta dalam studi ini. Algoritme random forest memiliki nilai akurasi yang paling tinggi 0,75±0,05 dengan indeks Youden 0,37 serta AUC 0,7±0,14. Sebanyak 86(69,35%) populasi terbukti memiliki stenosis signifikan.
Kesimpulan ULJB dengan bantuan kecerdasan buatan dapat mendeteksi adanya PJKO pada pasien dengan sindroma koroner kronik dengan respons iskemik sugestif positif.

Background Treadmill stress testing (TST) used to be an established diagnostic modalities in diagnosing obstructive coronary artery disease (OCAD) among patients with chronic coronary syndrome (CCS). Nevertheless, it has high false positive rate especially especially those with suggestive positive ischemic response (SPIR). We aim to develop an predictive model based on machine learning to detect OCAD among those with SPIR.
Method Patients who underwent TST and coronary angiography (CAG) within 1 year interval were enrolled into the study. They were randomly splitted into training (80%) and testing (20%) dataset for model development. Sixteen out of 122 features were used, including clinical information, risk factor and ECG parameter during TST. Several algorithm were used in model development including support vector machine, logistic regression, random forest, k-nearest neighbor, naive Bayesian, Adaboost, decision tree dan extreme gradient boosting.
Result 124 out of 513 patients with SPIR were enrolled in this study. Random forest algorithm achieved the highest accuracy (0,75±0,05) with Youden index of 0,37 and AUC 0,7±0,14. A total of 86(69,35%) patients had OCAD based on CAG.
Conclusion Machine learning based predictive model can diagnosed OCAD among CCS patients with SPIR.
"
Jakarta: Fakultas Kedokteran Universitas Indonesia, 2023
SP-pdf
UI - Tugas Akhir  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>