MIT doet onderzoek om AI slimmer te maken

MIT Ekibi, yapay zekâ modellerine henüz bilmediklerini öğretiyor.

Yapay zekânın (AI) uygulanması hızla büyüyor ve günlük hayatımızla ile sağlık, telekomünikasyon ve enerji gibi yüksek riskli endüstrilere giderek daha fazla entegre oluyor. Ancak büyük güçle büyük sorumluluk da geliyor: AI sistemleri bazen hatalar yapıyor veya ciddi sonuçlar doğurabilecek belirsiz yanıtlar veriyor.

MIT'nin Themis AI'si, CSAIL laboratuvarından profesör Daniela Rus'un ortak kurucusu ve liderliğinde, çığır açan bir çözüm sunuyor. Bu teknoloji, AI modellerinin 'bilmediklerini bilmelerini' sağlıyor. Bu, AI sistemlerinin tahminleri konusunda ne zaman belirsiz olduklarını kendilerinin gösterebilmesi anlamına geliyor; böylece zarar oluşmadan önce hatalar önlenebiliyor.

Bu neden bu kadar önemli?
Çok sayıda AI modeli, gelişmiş olanlar bile, bazen sözde 'halüsinasyonlar' gösterebilir—yanlış veya dayanıksız yanıtlar verirler. Tıbbi teşhis veya otonom sürüş gibi kararların hayati önem taşıdığı sektörlerde bu yıkıcı sonuçlar doğurabilir. Themis AI, Capsa adında bir platform geliştirerek belirsizlik nicelleştirmesi (uncertainty quantification) uyguladı: AI çıktılarının belirsizliğini ayrıntılı ve güvenilir bir şekilde ölçüp sayısallaştırıyor.

 Nasıl çalışıyor?
Modellere belirsizlik farkındalığı kazandırarak, çıktılara bir risk veya güvenilirlik etiketi ekleyebilirler. Örneğin: bir otonom araç bir durum konusunda emin olmadığını belirtebilir ve bu nedenle insan müdahalesini tetikleyebilir. Bu yalnızca güvenliği artırmakla kalmaz, aynı zamanda kullanıcıların AI sistemlerine güvenini de yükseltir.

Teknik uygulama örnekleri

  • PyTorch ile entegrasyonda modelin sarmalanması (wrapping) şu şekilde gerçekleşir capsa_torch.wrapper() çıktının hem tahmin hem de riskten oluştuğu:

Python example met capsa

TensorFlow modelleri için Capsa bir dekoratör ile çalışır:

tensorflow

Şirketler ve kullanıcılar için etki
NetCare ve müşterileri için bu teknoloji büyük bir ilerleme anlamına geliyor. Biz, sadece zeki değil aynı zamanda güvenli ve halüsinasyon olasılığı daha düşük, daha öngörülebilir AI uygulamaları sunabiliyoruz. Bu, kuruluşların daha iyi temellendirilmiş kararlar almasına ve iş açısından kritik uygulamalarda AI uygularken riskleri azaltmasına yardımcı olur.

Sonuç
MIT ekip geleceğin AI'sinin sadece daha akıllı olma meselesi olmadığını, aynı zamanda daha güvenli ve daha adil çalışmakla ilgili olduğunu gösteriyor. NetCare olarak biz, AI'nin gerçek değere ancak kendi sınırları konusunda şeffaf olduğunda ulaşacağına inanıyoruz. Capsa gibi gelişmiş belirsizlik nicelleştirme araçlarıyla bu vizyonu pratikte de uygulayabilirsiniz.

Gerard

Gerard, AI danışmanı ve yönetici olarak çalışıyor. Büyük kuruluşlardaki geniş deneyimi sayesinde bir problemi çok hızlı çözümleyip çözüme doğru yönlendirebiliyor. Ekonomik bir geçmişle birleştiğinde ticari olarak sorumlu seçimler yapmasını sağlıyor.