MIT, AI'yı daha akıllı hâle getirmek için araştırma yapıyor

MIT ekibi, AI modellerine henüz bilmediklerini öğretiyor.

Yapay zeka (AI) uygulamaları hızla büyüyor ve günlük hayatımızla ve sağlık, telekom ve enerji gibi yüksek riskli sektörlerle giderek daha fazla iç içe geçiyor. Ancak büyük güçle büyük sorumluluk da gelir: AI sistemleri bazen hatalar yapabilir veya belirsiz yanıtlar verebilir ve bu da büyük sonuçlar doğurabilir.

MIT’nin Themis AI’sı, CSAIL laboratuvarının profesörü Daniela Rus tarafından ortak kurulan ve yönetilen, çığır açan bir çözüm sunuyor. Teknolojileri, AI modellerinin ‘bilmediklerini bilmesini’ sağlıyor. Bu, AI sistemlerinin tahminleri konusunda ne zaman belirsiz olduklarını kendileri belirtebilecekleri anlamına gelir; böylece hatalar, zarar vermeden önce önlenebilir.

Neden bu kadar önemli?
Birçok AI modeli, hatta gelişmiş olanlar bile, zaman zaman ‘halüsinasyon’ olarak adlandırılan durumlar gösterebilir—yanlış veya temelsiz yanıtlar verirler. Tıbbi tanı veya otonom sürüş gibi kararların kritik olduğu sektörlerde bu felaket sonuçlar doğurabilir. Themis AI, belirsizlik ölçümlemesi uygulayan Capsa adlı bir platform geliştirdi: AI çıktısının belirsizliğini ayrıntılı ve güvenilir bir şekilde ölçer ve nicelendirir.

 Nasıl çalışıyor?
Modellere belirsizlik farkındalığı kazandırarak, çıktılara bir risk veya güvenilirlik etiketi ekleyebilirler. Örneğin, otonom bir araç bir durum hakkında emin olmadığını belirtebilir ve bu sayede insan müdahalesini devreye sokabilir. Bu sadece güvenliği artırmakla kalmaz, aynı zamanda kullanıcıların AI sistemlerine olan güvenini de yükseltir.

Teknik uygulama örnekleri

  • PyTorch ile entegrasyon sırasında modelin sarmalanması şu şekilde gerçekleşir capsa_torch.wrapper() çıktının hem tahmin hem de risk içerecek şekilde olması:

Python example met capsa

TensorFlow modelleri için Capsa bir dekoratör ile çalışır:

TensorFlow

Şirketler ve kullanıcılar üzerindeki etki
NetCare ve müşterileri için bu teknoloji büyük bir adım anlamına geliyor. Sadece akıllı değil, aynı zamanda daha güvenli ve daha öngörülebilir, halüsinasyon olasılığı daha düşük AI uygulamaları sunabiliyoruz. Bu, kuruluşların daha sağlam kararlar almasına ve AI’yı kritik iş uygulamalarına entegre ederken riskleri azaltmasına yardımcı olur.

Sonuç
MIT takım AI’nın geleceğinin sadece daha akıllı olmakla kalmayıp, aynı zamanda daha güvenli ve adil çalışmakla ilgili olduğunu gösteriyor. NetCare olarak, AI’nın kendi sınırlamaları konusunda şeffaf olduğunda gerçekten değerli olacağına inanıyoruz. Capsa gibi gelişmiş belirsizlik ölçümleme araçlarıyla bu vizyonu pratikte de hayata geçirebilirsiniz.

Gerard

Gerard, AI danışmanı ve yönetici olarak aktif. Büyük organizasyonlarda çok deneyime sahip olması sayesinde bir problemi özellikle hızlı bir şekilde çözümleyebilir ve çözüme yönlendirebilir. Ekonomik bir geçmişle birleştiğinde, iş açısından sorumlu seçimler yapmasını sağlar.