MIT atlieka tyrimus, kad AI taptų protingesnis

MIT komanda moko AI modelius, ką jie dar nežinojo.

Dirbtinio intelekto (AI) taikymas sparčiai auga ir vis labiau susipina su mūsų kasdieniu gyvenimu bei aukšto rizikos pramone, tokia kaip sveikatos apsauga, telekomunikacijos ir energetika. Tačiau su didžiule galia ateina ir didelė atsakomybė: AI sistemos kartais daro klaidas arba pateikia neaiškius atsakymus, kurie gali turėti rimtų pasekmių.

MIT Themis AI, kurią kartu įkūrė ir vadovauja profesorius Daniela Rus iš CSAIL laboratorijos, siūlo novatorišką sprendimą. Jų technologija leidžia AI modeliams „žinoti, ko jie nežino“. Tai reiškia, kad AI sistemos gali patys nurodyti, kada jos yra nepasitikėjimo savo prognozėmis, taip užkertant kelią klaidoms dar prieš sukeliant žalą.

Kodėl tai taip svarbu?
Daugelis AI modelių, net ir pažangiausių, kartais gali rodyti vadinamas „halucinacijas“ – jie pateikia klaidingus arba nepagrįstus atsakymus. Sektoriuose, kur sprendimai turi didelę svarbą, pavyzdžiui, medicininė diagnostika ar autonominis vairavimas, tai gali turėti katastrofiškų pasekmių. Themis AI sukūrė Capsa, platformą, kuri taiko neapibrėžtumo kiekybės matavimą: ji matuoja ir kiekybiškai įvertina AI išvesties neapibrėžtumą detaliai ir patikimai.

 Kaip tai veikia?
Įdėjus modeliams neapibrėžtumo suvokimą, jie gali suteikti išvestims rizikos arba patikimumo žymę. Pavyzdžiui, savarankiškai važiuojantis automobilis gali nurodyti, kad nesureikia situacijos ir todėl aktyvuoti žmogaus intervenciją. Tai ne tik padidina saugumą, bet ir sustiprina vartotojų pasitikėjimą AI sistemomis.

Techninės įgyvendinimo pavyzdžiai

  • Integruojant su PyTorch, modelio įvyniojimas atliekamas per capsa_torch.wrapper() kur išvestis susideda tiek iš prognozės, tiek iš rizikos:

Python example met capsa

TensorFlow modeliams Capsa veikia su dekoratoriumu:

TensorFlow

Įtaka įmonėms ir vartotojams
Ši technologija NetCare ir jos klientams reiškia didžiulį žingsnį į priekį. Mes galime teikti AI sprendimus, kurie ne tik yra protingi, bet ir saugūs bei geriau prognozuojami, su mažesne halucinacijų tikimybe. Tai padeda organizacijoms priimti geriau pagrįstus sprendimus ir sumažinti riziką diegiant AI į verslo kritines programas.

Išvada
MIT komanda parodo, kad AI ateitis neapsiriboja tik tapti protingesne, bet ypač saugesne ir teisingesne. NetCare tikime, kad AI tampa tikrai vertinga, kai ji yra skaidri dėl savo apribojimų. Naudodami pažangias neapibrėžtumo kiekybės įrankius, tokius kaip Capsa, galite šią viziją įgyvendinti praktikoje.

Gerard

Gerardas dirba AI konsultantu ir vadovu. Turėdamas daug patirties didelėse organizacijose, jis gali ypač greitai išnarplioti problemą ir siekti sprendimo. Derindamas tai su ekonominiu išsilavinimu, jis priima verslo požiūriu atsakingus sprendimus.