Ditemukan 2 dokumen yang sesuai dengan query
Teguh Agus Santoso
"Salah satu program manajemen risiko di rumah sakit yang sedang tren dalam rangka peningkatan mutu adalah Program Keselamatan Pasien (Patienf Safey). Kesadaran safety tentang faktor manusia pada industri rumah sakit mulai banyak menjadi perhatian. Perhatian tersebut tidak hanya dari pemerintah namun juga sektor swasta dan beberapa badan akreditasi mutu yang independen.
Setiap sistem pelaporan keselamatan pasien di setiap organisasi memiliki taksonomi baik secara implisit maupun eksplisit. Peneliti mengkaji taksonomi dari Badan Kesehatan WHO (World Health Organization), Badan Akreditasi JCAHO (Joint Commission on Accreditation of Healthcare Organization), dan KKPRS-Persi (Komite Keselamatan Pasien Rumah Sakit Pehimpunan Rumah Sakit Seluruh Indonesia) terutama taksonomi tentang medical error.
Dengan mengetahui bentuk-bentuk taksonomi tersebut, peneliti membual taksonomi yang baru untuk RS XYZ, dengan tujuan memudahkan Para Pembuat Kebijakan RS XYZ melakukan mitigasi. Setelah dilakukan wawancara mendalam dan studi kasus kepada Para Pengambil Kebijakan, taksonomi medical error yang ditawarkan oleh peneliti disetujui untuk dilakukan penerapan. Dan penelitian ini menyimpulkan bahwa taksonomi medical error yang baru berdasarkan framework James Reason untuk RS XYZ secara umum bisa mempermudah analisis dan mengambil tindakan. Peneliti pun mcnyarankan perlunya dukungan dari Pemerintah dalam hal ini Departemcn Kesehatan untuk penerapan taksonomi medical error di rumah sakit di Indonesia.
One of risk management program in hospital that in-trend for quality improving is Patient Safety. Safety awareness especialb/ human factor awareness is in attention in healthcare industry. The attention is not only from Government but also from private sector and independent accreditation bony. All patient safety reporting system in every orgameation has taxonomy jar implicit or explicit. Researcher assess the taxonomy from World Health Organization, Joint Commission on Accreditation of Healthcare Organization, and from National Patient Sakty Committee KKPRS-Persi Komite Keselamatan Pasien Rumah Sakit Pehimpunan Rumah Sakit Seluruh Indonesia) especialbt in medical error taxonomy. In knowing the taxonomiesjbrm, taxonomy model was made jbrXYZ Hospital with goal jbr making mitigation easibi by the XYZ Hospital Policy Maker. The methodology is in-depth interview and qualitative case stua§/ to the policy maker; and the result is medical error taxonomy that it is proposed have been agreed by policy maker to implement. And this research concluded the new medical error taxonomy that based on James Reason framework can make anabze easibt to mitigation. Researcher also suggest to government especiality Department of Health for medical error taxonomy implementation in hospital in Indonesia."
Universitas Indonesia, 2009
T33832
UI - Tesis Open Universitas Indonesia Library
Renita Evelina
"Teknologi Artificial Intelligence (AI) telah memasuki kehidupan masyarakat, termasuk di dunia medis. Keterlibatan AI dalam pelayanan medis menimbulkan kekhawatiran mengenai timbulnya kesalahan medis yang merugikan pasien (berupa luka atau kematian). Hal ini dikarenakan tingkat akurasi AI tidak mungkin dapat dinyatakan 100% oleh penciptanya. Berdasarkan kekhawatiran tersebut, Penulis mengeksplorasi pertanggungjawaban pidana dari pihak-pihak yang terlibat atas tindakan yang menyebabkan kesalahan medis yang menimbulkan kerugian pasien. Metode penelitian hukum doktrinal digunakan untuk memecahkan permasalahan penelitian ini. Penulis menitikberatkan teori pertanggungjawaban pidana model The Natural Probable Consequence Liability Model yang digagas oleh Gabriel Hallevy sebagai pisau analisis. Hasil yang ditemukan adalah dokter dapat dimintakan pertanggungjawaban pidana atas kelalaiannya dalam menentukan pengimplikasian output yang diberikan oleh AI, yang statusnya saat ini sebagai alat kesehatan atau teknologi kesehatan, bukan subjek hukum. Selain itu, rumah sakit menjadi pun turut menjadi pihak yang dapat dimintakan pertanggungjawaban pidana atas kelalaian yang dilakukan dokter, atau setidak-tidaknya karena lalai dalam menentukan dokter yang layak dipekerjakan di rumah sakit tersebut, atau atas kelalaian rumah sakit tersebut dalam melakukan pemeliharaan AI. Baik dokter secara pribadi maupun rumah sakit bertanggung jawab berdasarkan ketentuan Pasal 359 KUHP 1946, Pasal 360 KUHP 1946, Pasal 474 KUHP 2023, atau Pasal 440 ayat (1) dan (2) UU 17/2023. Di sisi lain, software developer dapat dimintakan pertanggungjawaban pidana hanya jika dapat dibuktikan software developer tersebut melakukan kekeliruan dalam memasukan data yang digunakan untuk melatih AI atau ketika penentuan algoritma. Indonesia belum memiliki aturan pidana yang secara khusus mengatur mengenai hal ini. Hukum pidana harus responsif terhadap situasi ini demi melindungi pasien dan dokter. Aturan pidana tersebut harus mengatur batasan-batasan penggunaan AI di dunia medis, informed consent khusus untuk tindakan medis yang melibatkan AI, jaminan kerahasiaan rekam medis, dan standar AI yang layak untuk digunakan dalam pelayanan medis. Akan tetapi, perlu diingat bahwa penggunaan hukum pidana harus tetap diterapkan secara ultimum remedium.
Artificial Intelligence (AI) has entered the daily life in society, include in medical industry. The integration of AI in medical services raises concern about possibility of medical errors resulting harm to patients (injury or death). This is because there is no body can guarantee that AI will always be 100% accurate, even the software developer. Based on these background, the Author explores the criminal responsibility of doctor, hospital, and software developer who involve in activities that bring out medical blunders that cause injury or death to patients. Doctrinal legal research methods is used to analyze the problem of the study. The author analyze the problem by using Theory of The Natural Probable Consequence Liability Model that proposed by Gabriel Hallevy as an analytical tool. The findings are doctor could be held criminaly liable for negligence in determining the implimentation of the outputs of AI, which is currently defined as health technology or medical devices rather than a legal subject. Hospital can also held liable for the doctor’s negligence during do the medical service, or at least for being negligent in selecting qualified doctors to work at there, or for hospital’s negligence in maintaining the AI. Article 359 of Criminal Code 1946, Article 360 of Criminal Code 1946, Article 474 of the Criminal Code 2023, or Article 440 paragraph (1) and (2) of Law 17/2023 holds hospital and doctor for these mistakes. In other hand, software developer could only be held criminally liable if it can be proven that software developer did mistake in inputing the data that used to train AI or in deciding algorithms for AI. There are no criminal law that restricts AI usage in the medical industry. Criminal law needs to adapt to this situation in order to protect the doctor and patients. Criminal law should including guidelines for AI that is qualified for use in medical services, impose limits on AI application in the area of medical services, confidentiality of medical records guarantee, and require specific informed consent for any medical services that using AI. It should be noticed that criminal law usage for resolving this case must be applied as the last resort (ultimum remedium)."
Jakarta: Fakultas Hukum Universitas Indonesia, 2024
T-pdf
UI - Tesis Membership Universitas Indonesia Library