การประยุกต์ใช้ปัญญาประดิษฐ์ (AI) กำลังเติบโตอย่างรวดเร็ว และผสานเข้ากับชีวิตประจำวันของเราและอุตสาหกรรมที่มีความสำคัญสูง เช่น การดูแลสุขภาพ โทรคมนาคม และพลังงานมากขึ้นเรื่อยๆ แต่ด้วยพลังที่ยิ่งใหญ่ ย่อมมาพร้อมกับความรับผิดชอบที่ยิ่งใหญ่: ระบบ AI บางครั้งอาจทำผิดพลาดหรือให้คำตอบที่ไม่แน่นอน ซึ่งอาจส่งผลกระทบร้ายแรงได้
Themis AI ของ MIT ซึ่งร่วมก่อตั้งและนำโดยศาสตราจารย์ Daniela Rus จากห้องปฏิบัติการ CSAIL ได้นำเสนอโซลูชันที่ล้ำสมัย เทคโนโลยีของพวกเขาช่วยให้แบบจำลอง AI สามารถ 'รู้ว่าตนเองไม่รู้อะไร' ซึ่งหมายความว่าระบบ AI สามารถระบุได้เมื่อพวกเขามีความไม่แน่นอนเกี่ยวกับการคาดการณ์ของตนเอง ทำให้สามารถป้องกันข้อผิดพลาดได้ก่อนที่จะก่อให้เกิดความเสียหาย
เหตุใดสิ่งนี้จึงสำคัญมาก?
แบบจำลอง AI จำนวนมาก แม้แต่แบบจำลองขั้นสูง ก็อาจแสดงสิ่งที่เรียกว่า 'ภาพหลอน' ได้ในบางครั้ง นั่นคือการให้คำตอบที่ผิดพลาดหรือไม่มีมูลความจริง ในภาคส่วนที่มีการตัดสินใจที่มีน้ำหนักมาก เช่น การวินิจฉัยทางการแพทย์ หรือการขับขี่อัตโนมัติ สิ่งนี้อาจนำไปสู่ผลลัพธ์ที่เลวร้ายได้ Themis AI ได้พัฒนา Capsa ซึ่งเป็นแพลตฟอร์มที่ใช้การวัดปริมาณความไม่แน่นอน (uncertainty quantification): โดยการวัดและหาปริมาณความไม่แน่นอนของผลลัพธ์ AI ในลักษณะที่ละเอียดและเชื่อถือได้
ทำงานอย่างไร?
ด้วยการสอนให้โมเดลตระหนักถึงความไม่แน่นอน พวกเขาสามารถระบุผลลัพธ์ด้วยป้ายกำกับความเสี่ยงหรือความน่าเชื่อถือได้ ตัวอย่างเช่น รถยนต์ขับเคลื่อนอัตโนมัติสามารถระบุได้ว่าไม่แน่ใจเกี่ยวกับสถานการณ์และเปิดใช้งานการแทรกแซงของมนุษย์ ซึ่งไม่เพียงแต่เพิ่มความปลอดภัย แต่ยังเพิ่มความไว้วางใจของผู้ใช้ในระบบ AI อีกด้วย
capsa_torch.wrapper() โดยที่ผลลัพธ์ประกอบด้วยทั้งการทำนายและความเสี่ยง:

บทสรุป
MIT ทีม แสดงให้เห็นว่าอนาคตของ AI ไม่ได้เป็นเพียงเรื่องของการฉลาดขึ้นเท่านั้น แต่ยังรวมถึงการทำงานที่ปลอดภัยและยุติธรรมยิ่งขึ้นด้วย ที่ NetCare เราเชื่อว่า AI จะมีคุณค่าอย่างแท้จริงเมื่อมีความโปร่งใสเกี่ยวกับข้อจำกัดของตนเอง ด้วยเครื่องมือวัดความไม่แน่นอนขั้นสูง เช่น Capsa คุณสามารถนำวิสัยทัศน์นั้นมาปฏิบัติได้จริง