Penerapan kecerdasan buatan (AI) berkembang cepat dan semakin terintegrasi dengan kehidupan sehari-hari kita serta industri berisiko tinggi seperti perawatan kesehatan, telekomunikasi, dan energi. Namun dengan kekuatan besar datang tanggung jawab besar: sistem AI kadang membuat kesalahan atau memberikan jawaban yang tidak pasti yang dapat memiliki konsekuensi besar.
Mengapa ini begitu penting?
Banyak model AI, bahkan yang canggih, kadang dapat menunjukkan apa yang disebut ‘halusinasi’—mereka memberikan jawaban yang salah atau tidak berdasar. Di sektor di mana keputusan sangat penting, seperti diagnosis medis atau mengemudi otonom, hal ini dapat menimbulkan konsekuensi yang mengerikan. Themis AI mengembangkan Capsa, sebuah platform yang menerapkan pengukuran ketidakpastian: ia mengukur dan mengkuantifikasi ketidakpastian output AI secara detail dan dapat diandalkan.
Bagaimana cara kerjanya?
Dengan menanamkan kesadaran ketidakpastian pada model, mereka dapat memberikan label risiko atau kepercayaan pada output. Misalnya: mobil self‑driving dapat menunjukkan bahwa ia tidak yakin tentang suatu situasi dan oleh karena itu mengaktifkan intervensi manusia. Ini tidak hanya meningkatkan keamanan, tetapi juga kepercayaan pengguna terhadap sistem AI.
capsa_torch.wrapper() di mana output terdiri dari prediksi serta risiko:
Kesimpulan
MIT tim menunjukkan bahwa masa depan AI tidak hanya tentang menjadi lebih pintar, tetapi terutama tentang berfungsi lebih aman dan adil. Di NetCare kami percaya bahwa AI baru menjadi benar-benar berharga ketika transparan tentang keterbatasannya sendiri. Dengan alat pengukuran ketidakpastian canggih seperti Capsa, Anda dapat mewujudkan visi tersebut dalam praktik.