MIT team at work

MIT Ekibi, Yapay Zeka Modellerine Bilmedikleri Şeyleri Öğretiyor.

Yapay zekanın (YZ) uygulaması hızla büyüyor ve günlük hayatımızla ve sağlık, telekom ve enerji gibi yüksek riskli endüstrilerle giderek daha fazla iç içe geçiyor. Ancak büyük güçle birlikte büyük sorumluluk da gelir: YZ sistemleri bazen hatalar yapar veya büyük sonuçları olabilecek belirsiz cevaplar verir.

CSAIL laboratuvarından Profesör Daniela Rus’un kurucu ortaklığını yaptığı ve liderliğini üstlendiği MIT’nin Themis YZ’si, çığır açan bir çözüm sunuyor. Teknolojileri, YZ modellerinin ‘ne bilmediklerini bilmelerini’ sağlıyor. Bu, YZ sistemlerinin tahminleri konusunda ne zaman belirsiz olduklarını kendilerinin belirleyebileceği anlamına geliyor, böylece hatalar zarar vermeden önlenebiliyor.

Bu neden bu kadar önemli?
Birçok YZ modeli, hatta gelişmiş olanlar bile bazen ‘halüsinasyon’ olarak adlandırılan durumlar sergileyebilirler – yanlış veya temelsiz cevaplar verirler. Tıbbi teşhis veya otonom sürüş gibi kararların ağır bastığı sektörlerde, bunun yıkıcı sonuçları olabilir. Themis YZ, Capsa adlı bir platform geliştirdi. Bu platform, belirsizlik nicelemesini uygulayarak YZ çıktısının belirsizliğini ayrıntılı ve güvenilir bir şekilde ölçer ve niceler.

 Nasıl çalışır?
Modellere belirsizlik farkındalığı kazandırarak, çıktıları bir risk veya güvenilirlik etiketiyle sağlayabilirler. Örneğin: kendi kendine giden bir araba bir durum hakkında emin olmadığını belirtebilir ve bu nedenle insan müdahalesini etkinleştirebilir. Bu sadece güvenliği artırmakla kalmaz, aynı zamanda kullanıcıların YZ sistemlerine olan güvenini de artırır.

Teknik uygulama örnekleri

  • PyTorch ile entegrasyon, modelin capsa_torch.wrapper() aracılığıyla sarılmasını içerir, burada çıktı hem tahmini hem de riski içerir:

Python example met capsa

TensorFlow modelleri için Capsa bir dekoratör ile çalışır:

tensorflow

Şirketler ve kullanıcılar için etkisi
NetCare ve müşterileri için bu teknoloji büyük bir adım ileri anlamına geliyor. Sadece akıllı değil, aynı zamanda güvenli ve daha tahmin edilebilir, daha az halüsinasyon olasılığı olan YZ uygulamaları sunabiliriz. Kuruluşların daha bilinçli kararlar almasına ve iş açısından kritik uygulamalara YZ’yi dahil etme risklerini azaltmasına yardımcı olur.

Sonuç
MIT takım, YZ’nin geleceğinin sadece daha akıllı olmakla ilgili olmadığını, aynı zamanda daha güvenli ve daha adil çalışmakla ilgili olduğunu gösteriyor. NetCare olarak, YZ’nin ancak kendi sınırlamaları konusunda şeffaf olduğunda gerçekten değerli olduğuna inanıyoruz. Capsa gibi gelişmiş belirsizlik niceleme araçlarıyla bu vizyonu uygulamaya koyabilirsiniz.

Gerard

Gerard

Gerard, AI danışmanı ve yönetici olarak aktiftir. Büyük kuruluşlarda edindiği geniş deneyimle, bir problemi çok hızlı bir şekilde çözebilir ve bir çözüme doğru ilerleyebilir. Ekonomik bir geçmişle birleştiğinde, iş açısından sorumlu kararlar almasını sağlar.

AIR (Artificial Intelligence Robot)