Yapay zekanın (YZ) uygulanması hızla büyüyor ve günlük hayatımızla birlikte sağlık, telekomünikasyon ve enerji gibi yüksek riskli endüstrilerle giderek daha fazla iç içe geçiyor. Ancak büyük güçle birlikte büyük sorumluluk da gelir: YZ sistemleri bazen hatalar yapabilir veya büyük sonuçları olabilecek belirsiz yanıtlar verebilir.
MIT’nin CSAIL laboratuvarından Profesör Daniela Rus tarafından kurulan ve yönetilen Themis AI, çığır açan bir çözüm sunuyor. Teknolojileri, YZ modellerinin “bilmediklerini bilmelerini” sağlıyor. Bu, YZ sistemlerinin tahminleri hakkında ne zaman belirsiz olduklarını kendilerinin belirtebileceği anlamına geliyor ve böylece hataların zarar vermeden önce önlenmesine yardımcı oluyor.
Bu neden bu kadar önemli?
Birçok YZ modeli, hatta gelişmiş olanlar bile, bazen “halüsinasyonlar” gösterebilir; yani yanlış veya temelsiz yanıtlar verebilirler. Tıbbi teşhis veya otonom sürüş gibi kararların ağır bastığı sektörlerde, bunun yıkıcı sonuçları olabilir. Themis AI, Capsa’yı geliştirdi; bu platform, YZ çıktısının belirsizliğini ayrıntılı ve güvenilir bir şekilde ölçen ve nicelendiren belirsizlik nicelleştirmesini uyguluyor.
Nasıl çalışır?
Modellere belirsizlik farkındalığı kazandırarak, çıktılarına bir risk veya güvenilirlik etiketi ekleyebilirler. Örneğin: kendi kendine giden bir araba, bir durum hakkında emin olmadığını belirtebilir ve bu nedenle insan müdahalesini etkinleştirebilir. Bu sadece güvenliği artırmakla kalmaz, aynı zamanda kullanıcıların YZ sistemlerine olan güvenini de artırır.
capsa_torch.wrapper()
aracılığıyla sarılması, çıktının hem tahmini hem de riski içermesini sağlar:
Sonuç
MIT ekibi, YZ’nin geleceğinin sadece daha akıllı olmakla kalmayıp, aynı zamanda daha güvenli ve daha adil çalışmakla ilgili olduğunu gösteriyor. NetCare olarak, YZ’nin ancak kendi sınırlamaları konusunda şeffaf olduğunda gerçekten değerli olduğuna inanıyoruz. Capsa gibi gelişmiş belirsizlik nicelleştirme araçlarıyla, bu vizyonu pratiğe de dökebilirsiniz.