Yapay zeka (AI) uygulamaları hızla büyüyor ve günlük hayatımızla ve sağlık, telekom ve enerji gibi yüksek riskli sektörlerle giderek daha fazla iç içe geçiyor. Ancak büyük güçle büyük sorumluluk da gelir: AI sistemleri bazen hatalar yapabilir veya belirsiz yanıtlar verebilir ve bu da büyük sonuçlar doğurabilir.
MIT’nin Themis AI’sı, CSAIL laboratuvarının profesörü Daniela Rus tarafından ortak kurulan ve yönetilen, çığır açan bir çözüm sunuyor. Teknolojileri, AI modellerinin ‘bilmediklerini bilmesini’ sağlıyor. Bu, AI sistemlerinin tahminleri konusunda ne zaman belirsiz olduklarını kendileri belirtebilecekleri anlamına gelir; böylece hatalar, zarar vermeden önce önlenebilir.
Neden bu kadar önemli?
Birçok AI modeli, hatta gelişmiş olanlar bile, zaman zaman ‘halüsinasyon’ olarak adlandırılan durumlar gösterebilir—yanlış veya temelsiz yanıtlar verirler. Tıbbi tanı veya otonom sürüş gibi kararların kritik olduğu sektörlerde bu felaket sonuçlar doğurabilir. Themis AI, belirsizlik ölçümlemesi uygulayan Capsa adlı bir platform geliştirdi: AI çıktısının belirsizliğini ayrıntılı ve güvenilir bir şekilde ölçer ve nicelendirir.
Nasıl çalışıyor?
Modellere belirsizlik farkındalığı kazandırarak, çıktılara bir risk veya güvenilirlik etiketi ekleyebilirler. Örneğin, otonom bir araç bir durum hakkında emin olmadığını belirtebilir ve bu sayede insan müdahalesini devreye sokabilir. Bu sadece güvenliği artırmakla kalmaz, aynı zamanda kullanıcıların AI sistemlerine olan güvenini de yükseltir.
capsa_torch.wrapper() çıktının hem tahmin hem de risk içerecek şekilde olması:

Sonuç
MIT takım AI’nın geleceğinin sadece daha akıllı olmakla kalmayıp, aynı zamanda daha güvenli ve adil çalışmakla ilgili olduğunu gösteriyor. NetCare olarak, AI’nın kendi sınırlamaları konusunda şeffaf olduğunda gerçekten değerli olacağına inanıyoruz. Capsa gibi gelişmiş belirsizlik ölçümleme araçlarıyla bu vizyonu pratikte de hayata geçirebilirsiniz.