Penerapan kecerdasan buatan (AI) berkembang pesat dan semakin terintegrasi dalam kehidupan sehari-hari serta industri berisiko tinggi seperti layanan kesehatan, telekomunikasi, dan energi. Namun, kekuatan besar juga membawa tanggung jawab besar: sistem AI terkadang membuat kesalahan atau memberikan jawaban tidak pasti yang dapat menimbulkan konsekuensi serius.
Mengapa hal ini sangat penting?
Banyak model AI, bahkan yang canggih sekalipun, terkadang dapat menunjukkan apa yang disebut 'halusinasi'—mereka memberikan jawaban yang salah atau tidak berdasar. Di sektor di mana keputusan memiliki bobot besar, seperti diagnosis medis atau mengemudi otonom, hal ini bisa berakibat fatal. Themis AI mengembangkan Capsa, sebuah platform yang menerapkan kuantifikasi ketidakpastian: platform ini mengukur dan menguantifikasi ketidakpastian output AI secara mendetail dan andal.
Bagaimana cara kerjanya?
Dengan membekali model kesadaran akan ketidakpastian (uncertainty awareness), model tersebut dapat memberikan label risiko atau tingkat kepercayaan pada outputnya. Contohnya: mobil otonom dapat menunjukkan bahwa ia tidak yakin dengan suatu situasi dan oleh karena itu mengaktifkan intervensi manusia. Hal ini tidak hanya meningkatkan keamanan, tetapi juga kepercayaan pengguna terhadap sistem AI.
capsa_torch.wrapper() di mana outputnya terdiri dari prediksi sekaligus risikonya:
Kesimpulan
MIT tim menunjukkan bahwa masa depan AI bukan hanya tentang menjadi lebih cerdas, tetapi terutama tentang berfungsi dengan lebih aman dan adil. Di NetCare, kami percaya bahwa AI baru akan benar-benar berharga jika ia transparan mengenai keterbatasannya sendiri. Dengan alat kuantifikasi ketidakpastian yang canggih seperti Capsa, Anda dapat mewujudkan visi tersebut dalam praktik.