Yapay zekanın (YZ) uygulaması hızla büyüyor ve günlük hayatımızla ve sağlık, telekom ve enerji gibi yüksek riskli endüstrilerle giderek daha fazla iç içe geçiyor. Ancak büyük güçle birlikte büyük sorumluluk da gelir: YZ sistemleri bazen hatalar yapar veya büyük sonuçları olabilecek belirsiz cevaplar verir.
CSAIL laboratuvarından Profesör Daniela Rus’un kurucu ortaklığını yaptığı ve liderliğini üstlendiği MIT’nin Themis YZ’si, çığır açan bir çözüm sunuyor. Teknolojileri, YZ modellerinin ‘ne bilmediklerini bilmelerini’ sağlıyor. Bu, YZ sistemlerinin tahminleri konusunda ne zaman belirsiz olduklarını kendilerinin belirleyebileceği anlamına geliyor, böylece hatalar zarar vermeden önlenebiliyor.
Bu neden bu kadar önemli?
Birçok YZ modeli, hatta gelişmiş olanlar bile bazen ‘halüsinasyon’ olarak adlandırılan durumlar sergileyebilirler – yanlış veya temelsiz cevaplar verirler. Tıbbi teşhis veya otonom sürüş gibi kararların ağır bastığı sektörlerde, bunun yıkıcı sonuçları olabilir. Themis YZ, Capsa adlı bir platform geliştirdi. Bu platform, belirsizlik nicelemesini uygulayarak YZ çıktısının belirsizliğini ayrıntılı ve güvenilir bir şekilde ölçer ve niceler.
Nasıl çalışır?
Modellere belirsizlik farkındalığı kazandırarak, çıktıları bir risk veya güvenilirlik etiketiyle sağlayabilirler. Örneğin: kendi kendine giden bir araba bir durum hakkında emin olmadığını belirtebilir ve bu nedenle insan müdahalesini etkinleştirebilir. Bu sadece güvenliği artırmakla kalmaz, aynı zamanda kullanıcıların YZ sistemlerine olan güvenini de artırır.
capsa_torch.wrapper()
aracılığıyla sarılmasını içerir, burada çıktı hem tahmini hem de riski içerir:
Sonuç
MIT takım, YZ’nin geleceğinin sadece daha akıllı olmakla ilgili olmadığını, aynı zamanda daha güvenli ve daha adil çalışmakla ilgili olduğunu gösteriyor. NetCare olarak, YZ’nin ancak kendi sınırlamaları konusunda şeffaf olduğunda gerçekten değerli olduğuna inanıyoruz. Capsa gibi gelişmiş belirsizlik niceleme araçlarıyla bu vizyonu uygulamaya koyabilirsiniz.