การประยุกต์ใช้ปัญญาประดิษฐ์ (AI) กำลังเติบโตอย่างรวดเร็ว และผสานเข้ากับชีวิตประจำวันของเราและอุตสาหกรรมที่มีความสำคัญสูง เช่น การดูแลสุขภาพ โทรคมนาคม และพลังงานมากขึ้นเรื่อยๆ แต่ด้วยพลังที่ยิ่งใหญ่ ย่อมมาพร้อมกับความรับผิดชอบที่ยิ่งใหญ่: ระบบ AI บางครั้งอาจทำผิดพลาดหรือให้คำตอบที่ไม่แน่นอน ซึ่งอาจส่งผลกระทบร้ายแรงได้
Themis AI ของ MIT ซึ่งร่วมก่อตั้งและนำโดยศาสตราจารย์ Daniela Rus จากห้องปฏิบัติการ CSAIL ได้นำเสนอโซลูชันที่ล้ำสมัย เทคโนโลยีของพวกเขาช่วยให้โมเดล AI สามารถ 'รู้ว่าตนเองไม่รู้อะไร' ซึ่งหมายความว่าระบบ AI สามารถระบุได้เมื่อพวกเขามีความไม่แน่นอนเกี่ยวกับการคาดการณ์ของตนเอง ทำให้สามารถป้องกันข้อผิดพลาดได้ก่อนที่จะก่อให้เกิดความเสียหาย
ทำไมสิ่งนี้จึงสำคัญมาก?
โมเดล AI จำนวนมาก แม้แต่โมเดลที่ล้ำสมัย ก็อาจแสดงสิ่งที่เรียกว่า 'ภาพหลอน' (hallucinations) ได้ นั่นคือการให้คำตอบที่ผิดพลาดหรือไม่มีมูลความจริง ในภาคส่วนที่มีการตัดสินใจที่มีน้ำหนักมาก เช่น การวินิจฉัยทางการแพทย์ หรือการขับขี่อัตโนมัติ สิ่งนี้อาจนำไปสู่ผลลัพธ์ที่เลวร้ายได้ Themis AI ได้พัฒนา Capsa ซึ่งเป็นแพลตฟอร์มที่ใช้การวัดปริมาณความไม่แน่นอน (uncertainty quantification) โดยจะวัดและหาปริมาณความไม่แน่นอนของผลลัพธ์ AI ในลักษณะที่ละเอียดและเชื่อถือได้
ทำงานอย่างไร?
การเพิ่มความตระหนักถึงความไม่แน่นอน (uncertainty awareness) ให้กับโมเดล ทำให้สามารถระบุป้ายกำกับความเสี่ยงหรือระดับความน่าเชื่อถือให้กับผลลัพธ์ได้ ตัวอย่างเช่น รถยนต์ขับเคลื่อนอัตโนมัติสามารถระบุได้ว่าไม่แน่ใจเกี่ยวกับสถานการณ์ และเรียกใช้การแทรกแซงของมนุษย์ สิ่งนี้ไม่เพียงแต่เพิ่มความปลอดภัยเท่านั้น แต่ยังเพิ่มความไว้วางใจของผู้ใช้ในระบบ AI อีกด้วย
capsa_torch.wrapper() โดยที่ผลลัพธ์ประกอบด้วยทั้งการคาดการณ์และความเสี่ยง:

บทสรุป
MIT ทีม แสดงให้เห็นว่าอนาคตของ AI ไม่ได้ขึ้นอยู่กับการฉลาดขึ้นเท่านั้น แต่ยังรวมถึงการทำงานที่ปลอดภัยและยุติธรรมยิ่งขึ้นด้วย ที่ NetCare เราเชื่อว่า AI จะมีคุณค่าอย่างแท้จริงก็ต่อเมื่อมีความโปร่งใสเกี่ยวกับข้อจำกัดของตนเอง ด้วยเครื่องมือการวัดปริมาณความไม่แน่นอนขั้นสูง เช่น Capsa คุณสามารถนำวิสัยทัศน์นั้นมาปฏิบัติได้จริง