การประยุกต์ใช้ปัญญาประดิษฐ์ (AI) กำลังเติบโตอย่างรวดเร็วและผสานเข้ากับชีวิตประจำวันของเราและอุตสาหกรรมที่มีความเสี่ยงสูงเช่น การดูแลสุขภาพ, โทรคมนาคมและพลังงานมากขึ้นเรื่อย ๆ แต่ด้วยพลังอันยิ่งใหญ่ก็มาพร้อมกับความรับผิดชอบที่ใหญ่เช่นกัน: ระบบ AI บางครั้งอาจทำผิดพลาดหรือให้คำตอบที่ไม่แน่นอนซึ่งอาจส่งผลกระทบอย่างรุนแรง
ทำไมเรื่องนี้ถึงสำคัญขนาดนี้?
โมเดล AI จำนวนมาก แม้จะเป็นโมเดลที่ก้าวหน้า ก็อาจแสดงอาการที่เรียกว่า ‘การหลอน’ — ให้คำตอบที่ผิดหรือไม่มีพื้นฐาน ในภาคส่วนที่การตัดสินใจมีความสำคัญสูง เช่น การวินิจฉัยทางการแพทย์หรือการขับขี่อัตโนมัติ สิ่งนี้อาจก่อให้เกิดผลร้ายแรงอย่างมหันต์ Themis AI ได้พัฒนา Capsa แพลตฟอร์มที่ใช้การประเมินความไม่แน่นอน: วัดและกำหนดค่าความไม่แน่นอนของผลลัพธ์ AI อย่างละเอียดและเชื่อถือได้
มันทำงานอย่างไร?
โดยการสอนให้โมเดลรับรู้ความไม่แน่นอน สามารถใส่ป้ายความเสี่ยงหรือความเชื่อถือให้กับผลลัพธ์ได้ ตัวอย่างเช่น รถยนต์ขับอัตโนมัติอาจบ่งบอกว่ามันไม่แน่ใจในสถานการณ์หนึ่งและจึงเรียกการแทรกแซงของมนุษย์ การทำเช่นนี้ไม่เพียงเพิ่มความปลอดภัยเท่านั้น แต่ยังเสริมความเชื่อมั่นของผู้ใช้ต่อระบบ AI อีกด้วย
capsa_torch.wrapper() โดยผลลัพธ์ประกอบด้วยการทำนายและความเสี่ยงด้วยกัน:
สรุป
MIT ทีม แสดงให้เห็นว่าอนาคตของ AI ไม่ได้เพียงแค่มุ่งเน้นการฉลาดขึ้นเท่านั้น แต่ยังต้องทำงานอย่างปลอดภัยและยุติธรรมมากขึ้น ที่ NetCare เราเชื่อว่า AI จะมีคุณค่าอย่างแท้จริงเมื่อมันโปร่งใสเกี่ยวกับข้อจำกัดของตนเอง ด้วยเครื่องมือการประเมินความไม่แน่นอนขั้นสูงเช่น Capsa คุณก็สามารถนำวิสัยทัศน์นี้สู่การปฏิบัติได้