Penerapan kecerdasan buatan (AI) berkembang pesat dan semakin terintegrasi dalam kehidupan sehari-hari serta industri berisiko tinggi seperti layanan kesehatan, telekomunikasi, dan energi. Namun, kekuatan besar membawa tanggung jawab yang besar pula: sistem AI terkadang membuat kesalahan atau memberikan jawaban tidak pasti yang dapat menimbulkan konsekuensi serius.
Mengapa hal ini sangat penting?
Banyak model AI, bahkan yang canggih sekalipun, terkadang dapat menunjukkan apa yang disebut 'halusinasi'—yaitu memberikan jawaban yang salah atau tidak berdasar. Di sektor di mana keputusan memiliki dampak besar, seperti diagnosis medis atau kendaraan otonom, hal ini bisa berakibat fatal. Themis AI mengembangkan Capsa, sebuah platform yang menerapkan kuantifikasi ketidakpastian (uncertainty quantification): platform ini mengukur dan menguantifikasi ketidakpastian output AI secara mendetail dan andal.
Bagaimana cara kerjanya?
Dengan membekali model kesadaran akan ketidakpastian (uncertainty awareness), model tersebut dapat memberikan label risiko atau tingkat kepercayaan pada outputnya. Contohnya: mobil otonom dapat memberi sinyal bahwa ia tidak yakin dengan suatu situasi dan oleh karena itu mengaktifkan intervensi manusia. Hal ini tidak hanya meningkatkan keamanan, tetapi juga kepercayaan pengguna terhadap sistem AI.
capsa_torch.wrapper() di mana outputnya terdiri dari prediksi sekaligus risikonya:
Kesimpulan
Tim MIT tim menunjukkan bahwa masa depan AI tidak hanya tentang menjadi lebih pintar, tetapi terutama tentang berfungsi dengan lebih aman dan adil. Di NetCare, kami percaya bahwa AI baru akan benar-benar bernilai jika ia transparan mengenai keterbatasannya sendiri. Dengan alat kuantifikasi ketidakpastian yang canggih seperti Capsa, Anda dapat mewujudkan visi tersebut dalam praktik.