MIT melakukan penelitian untuk membuat AI lebih cerdas

Tim MIT mengajarkan model AI apa yang belum mereka ketahui.

Penerapan kecerdasan buatan (AI) berkembang pesat dan semakin terintegrasi dalam kehidupan sehari-hari serta industri berisiko tinggi seperti layanan kesehatan, telekomunikasi, dan energi. Namun, kekuatan besar membawa tanggung jawab yang besar pula: sistem AI terkadang membuat kesalahan atau memberikan jawaban tidak pasti yang dapat menimbulkan konsekuensi serius.

Mengapa hal ini sangat penting?
Banyak model AI, bahkan yang canggih sekalipun, terkadang dapat menunjukkan apa yang disebut 'halusinasi'—yaitu memberikan jawaban yang salah atau tidak berdasar. Di sektor di mana keputusan memiliki dampak besar, seperti diagnosis medis atau kendaraan otonom, hal ini bisa berakibat fatal. Themis AI mengembangkan Capsa, sebuah platform yang menerapkan kuantifikasi ketidakpastian (uncertainty quantification): platform ini mengukur dan menguantifikasi ketidakpastian output AI secara mendetail dan andal.

 Bagaimana cara kerjanya?
Dengan membekali model kesadaran akan ketidakpastian (uncertainty awareness), model tersebut dapat memberikan label risiko atau tingkat kepercayaan pada outputnya. Contohnya: mobil otonom dapat memberi sinyal bahwa ia tidak yakin dengan suatu situasi dan oleh karena itu mengaktifkan intervensi manusia. Hal ini tidak hanya meningkatkan keamanan, tetapi juga kepercayaan pengguna terhadap sistem AI.

Contoh implementasi teknis
  • Saat integrasi dengan PyTorch, pembungkusan (wrapping) model dilakukan melalui capsa_torch.wrapper() di mana outputnya terdiri dari prediksi sekaligus risikonya:
Python example met capsa
Untuk model TensorFlow, Capsa bekerja dengan dekorator:
tensorflow
Dampak bagi perusahaan dan pengguna
Bagi NetCare dan para kliennya, teknologi ini merupakan langkah maju yang sangat besar. Kami dapat menyediakan aplikasi AI yang tidak hanya cerdas, tetapi juga aman dan lebih dapat diprediksi dengan risiko halusinasi yang lebih rendah. Hal ini membantu organisasi dalam membuat keputusan yang lebih tepat dan mengurangi risiko saat menerapkan AI dalam aplikasi yang krusial bagi bisnis.

Kesimpulan
Tim MIT tim menunjukkan bahwa masa depan AI tidak hanya tentang menjadi lebih pintar, tetapi terutama tentang berfungsi dengan lebih aman dan adil. Di NetCare, kami percaya bahwa AI baru akan benar-benar bernilai jika ia transparan mengenai keterbatasannya sendiri. Dengan alat kuantifikasi ketidakpastian yang canggih seperti Capsa, Anda dapat mewujudkan visi tersebut dalam praktik.

Gerard

Gerard aktif sebagai konsultan AI dan manajer. Dengan banyak pengalaman di organisasi besar, ia dapat dengan sangat cepat mengurai masalah dan bekerja menuju solusi. Dipadukan dengan latar belakang ekonomi, ia memastikan pilihan yang bertanggung jawab secara bisnis.