MIT melakukan penelitian untuk membuat AI lebih pintar

Tim MIT mengajarkan model AI hal-hal yang belum mereka ketahui.

Penerapan kecerdasan buatan (AI) berkembang pesat dan semakin terintegrasi dengan kehidupan sehari-hari kita serta industri berisiko tinggi seperti perawatan kesehatan, telekomunikasi, dan energi. Namun, dengan kekuatan besar datang tanggung jawab besar: sistem AI kadang membuat kesalahan atau memberikan jawaban yang tidak pasti yang dapat menimbulkan konsekuensi serius.

Themis AI milik MIT, yang didirikan bersama dan dipimpin oleh profesor Daniela Rus dari laboratorium CSAIL, menawarkan solusi terobosan. Teknologi mereka memungkinkan model AI untuk ‘mengetahui apa yang tidak mereka ketahui’. Ini berarti sistem AI dapat secara mandiri menunjukkan kapan mereka tidak yakin terhadap prediksi mereka, sehingga kesalahan dapat dicegah sebelum menimbulkan kerusakan.

Mengapa ini begitu penting?
Banyak model AI, bahkan yang canggih sekalipun, kadang menunjukkan apa yang disebut ‘halusinasi’—mereka memberikan jawaban yang salah atau tidak berdasar. Di sektor di mana keputusan sangat penting, seperti diagnosis medis atau mengemudi otonom, hal ini dapat menimbulkan konsekuensi bencana. Themis AI mengembangkan Capsa, sebuah platform yang menerapkan pengukuran ketidakpastian: ia mengukur dan mengkuantifikasi ketidakpastian output AI secara detail dan dapat diandalkan.

 Bagaimana cara kerjanya?
Dengan membekali model kesadaran akan ketidakpastian, mereka dapat menambahkan label risiko atau kepercayaan pada output. Misalnya: mobil otonom dapat menunjukkan bahwa ia tidak yakin tentang suatu situasi dan karenanya mengaktifkan intervensi manusia. Hal ini tidak hanya meningkatkan keamanan, tetapi juga kepercayaan pengguna terhadap sistem AI.

Contoh implementasi teknis

  • Saat integrasi dengan PyTorch, prosesnya melibatkan pembungkus model melalui capsa_torch.wrapper() di mana output terdiri dari prediksi serta risiko:

Python example met capsa

Untuk model TensorFlow, Capsa berfungsi dengan dekorator:

TensorFlow

Dampak bagi perusahaan dan pengguna
Bagi NetCare dan pelanggannya, teknologi ini merupakan langkah besar ke depan. Kami dapat menyediakan aplikasi AI yang tidak hanya cerdas, tetapi juga aman dan lebih dapat diprediksi dengan risiko halusinasi yang lebih rendah. Ini membantu organisasi membuat keputusan yang lebih berdasar dan mengurangi risiko saat mengimplementasikan AI dalam aplikasi kritis bisnis.

Kesimpulan
MIT tim menunjukkan bahwa masa depan AI tidak hanya tentang menjadi lebih pintar, tetapi terutama tentang berfungsi lebih aman dan adil. Di NetCare kami percaya bahwa AI baru menjadi benar-benar berharga ketika transparan mengenai keterbatasannya sendiri. Dengan alat pengukuran ketidakpastian canggih seperti Capsa, Anda dapat mewujudkan visi tersebut dalam praktik.

Gerard

Gerard aktif sebagai konsultan AI dan manajer. Dengan banyak pengalaman di organisasi besar, ia dapat dengan sangat cepat mengurai masalah dan bekerja menuju solusi. Dipadukan dengan latar belakang ekonomi, ia memastikan pilihan yang bertanggung jawab secara bisnis.