MIT doet onderzoek om AI slimmer te maken

ทีม MIT สอนแบบจำลอง AI ให้รู้ในสิ่งที่ยังไม่รู้

การประยุกต์ใช้ปัญญาประดิษฐ์ (AI) เติบโตอย่างรวดเร็วและยิ่งทับซ้อนเข้ากับชีวิตประจำวันของเราและอุตสาหกรรมที่มีผลกระทบสูง เช่น การดูแลสุขภาพ โทรคมนาคม และพลังงาน แต่เมื่อมีกำลังมากก็ต้องมีความรับผิดชอบมากขึ้น: ระบบ AI บางครั้งอาจทำผิดพลาดหรือให้คำตอบที่ไม่แน่นอนซึ่งอาจมีผลกระทบร้ายแรง

Themis AI ของ MIT ซึ่งก่อตั้งและนำโดยศาสตราจารย์ Daniela Rus จากห้องปฏิบัติการ CSAIL นำเสนอแนวทางที่ก้าวล้ำ เทคโนโลยีของพวกเขาช่วยให้แบบจำลอง AI สามารถ ‘รู้ในสิ่งที่ตนไม่รู้’ ได้ ซึ่งหมายความว่าระบบ AI สามารถระบุด้วยตนเองเมื่อมีความไม่แน่นอนเกี่ยวกับการทำนาย ทำให้สามารถป้องกันความผิดพลาดก่อนที่จะก่อให้เกิดความเสียหาย

ทำไมสิ่งนี้จึงสำคัญ?
แบบจำลอง AI จำนวนมาก แม้แต่แบบที่ก้าวหน้า บางครั้งก็แสดงให้เห็นสิ่งที่เรียกว่า ‘ฮัลลูซิเนชัน’ — ให้คำตอบที่ผิดหรือไม่มีพื้นฐาน ในภาคส่วนที่การตัดสินใจมีความสำคัญมาก เช่น การวินิจฉัยทางการแพทย์หรือการขับขี่อัตโนมัติ ผลลัพธ์อาจร้ายแรง Themis AI พัฒนา Capsa ซึ่งเป็นแพลตฟอร์มที่นำการวัดความไม่แน่นอน (uncertainty quantification) มาใช้: มันวัดและระบุปริมาณความไม่แน่นอนของผลลัพธ์จาก AI อย่างละเอียดและเชื่อถือได้

 มันทำงานอย่างไร?
ด้วยการสอนให้แบบจำลองมีความตระหนักในความไม่แน่นอน พวกมันจึงสามารถแนบป้ายความเสี่ยงหรือความเชื่อมั่นกับผลลัพธ์ ตัวอย่างเช่น รถขับเคลื่อนอัตโนมัติอาจระบุว่าไม่แน่ใจในสถานการณ์หนึ่งและกระตุ้นให้มีการแทรกแซงจากมนุษย์ ซึ่งไม่เพียงเพิ่มความปลอดภัย แต่ยังเพิ่มความไว้วางใจของผู้ใช้ในระบบ AI ด้วย

ตัวอย่างการนำไปใช้เชิงเทคนิค

  • เมื่อรวมกับ PyTorch การห่อหุ้ม (wrapping) แบบจำลองจะทำผ่าน capsa_torch.wrapper() โดยที่เอาต์พุตประกอบด้วยทั้งการทำนายและความเสี่ยง:

Python example met capsa

สำหรับโมเดล TensorFlow Capsa ทำงานร่วมกับ decorator:

tensorflow

ผลกระทบต่อธุรกิจและผู้ใช้งาน
สำหรับ NetCare และลูกค้าของบริษัท เทคโนโลยีนี้เป็นก้าวสำคัญ เราสามารถส่งมอบการประยุกต์ใช้ AI ที่ไม่เพียงแต่ชาญฉลาด แต่ยังปลอดภัยและมีความสามารถในการทำนายได้ดีขึ้นโดยมีโอกาสเกิดฮัลลูซิเนชันน้อยลง ช่วยให้องค์กรตัดสินใจบนพื้นฐานที่ดีขึ้นและลดความเสี่ยงเมื่อเปิดใช้งาน AI ในแอปพลิเคชันที่สำคัญต่อการดำเนินงาน

บทสรุป
MIT ทีม แสดงให้เห็นว่าอนาคตของ AI ไม่ได้หมายถึงแค่การฉลาดขึ้นเท่านั้น แต่ยังหมายถึงการทำงานที่ปลอดภัยและเป็นธรรมมากขึ้น ที่ NetCare เราเชื่อว่า AI จะมีคุณค่าอย่างแท้จริงก็ต่อเมื่อสามารถโปร่งใสเกี่ยวกับข้อจำกัดของตัวเองได้ ด้วยเครื่องมือการวัดความไม่แน่นอนขั้นสูงอย่าง Capsa คุณสามารถนำวิสัยทัศน์นี้ไปใช้ในทางปฏิบัติได้

เจอราร์ด

เจอราร์ดทำงานในฐานะที่ปรึกษาและผู้จัดการด้านปัญญาประดิษฐ์ โดยมีประสบการณ์มากในองค์กรขนาดใหญ่จึงสามารถวิเคราะห์ปัญหาได้รวดเร็วเป็นพิเศษและนำไปสู่การแก้ไขได้ เมื่อรวมกับพื้นฐานด้านเศรษฐศาสตร์แล้วเขาจะช่วยให้การตัดสินใจมีความรับผิดชอบเชิงธุรกิจ