การประยุกต์ใช้ปัญญาประดิษฐ์ (AI) กำลังเติบโตอย่างรวดเร็วและเข้ามามีบทบาทในชีวิตประจำวันของเรา รวมถึงอุตสาหกรรมที่มีความสำคัญสูง เช่น การดูแลสุขภาพ โทรคมนาคม และพลังงาน แต่ด้วยพลังที่ยิ่งใหญ่ย่อมมาพร้อมกับความรับผิดชอบที่ยิ่งใหญ่ ระบบ AI บางครั้งอาจเกิดข้อผิดพลาดหรือให้คำตอบที่ไม่แน่นอน ซึ่งอาจส่งผลกระทบอย่างรุนแรงได้
ทำไมเรื่องนี้ถึงสำคัญมาก?
โมเดล AI จำนวนมาก แม้จะเป็นโมเดลขั้นสูง ก็อาจเกิดสิ่งที่เรียกว่า 'อาการหลอน' (hallucinations) ได้ คือการให้คำตอบที่ผิดพลาดหรือไม่มีมูลความจริง ในภาคส่วนที่การตัดสินใจมีผลกระทบสูง เช่น การวินิจฉัยทางการแพทย์หรือการขับขี่อัตโนมัติ สิ่งนี้อาจนำไปสู่ผลลัพธ์ที่เลวร้ายได้ Themis AI ได้พัฒนา Capsa ซึ่งเป็นแพลตฟอร์มที่ใช้การวัดปริมาณความไม่แน่นอน (uncertainty quantification) โดยจะทำการวัดและประเมินความไม่แน่นอนของผลลัพธ์จาก AI อย่างละเอียดและเชื่อถือได้
มันทำงานอย่างไร?
การทำให้โมเดลมีความตระหนักรู้ถึงความไม่แน่นอน (uncertainty awareness) จะช่วยให้สามารถระบุระดับความเสี่ยงหรือความน่าเชื่อถือให้กับผลลัพธ์ได้ ตัวอย่างเช่น รถยนต์ไร้คนขับสามารถแจ้งเตือนได้ว่าไม่แน่ใจในสถานการณ์นั้นๆ และขอให้มนุษย์เข้ามาควบคุมแทน สิ่งนี้ไม่เพียงแต่เพิ่มความปลอดภัย แต่ยังช่วยสร้างความเชื่อมั่นของผู้ใช้งานที่มีต่อระบบ AI อีกด้วย
capsa_torch.wrapper() โดยที่ผลลัพธ์จะประกอบด้วยทั้งการคาดการณ์และความเสี่ยง:
บทสรุป
ทีมงาน MIT ทีมงาน แสดงให้เห็นว่าอนาคตของ AI ไม่ได้ขึ้นอยู่กับการฉลาดขึ้นเพียงอย่างเดียว แต่ยังรวมถึงการทำงานที่ปลอดภัยและยุติธรรมยิ่งขึ้นด้วย ที่ NetCare เราเชื่อว่า AI จะมีคุณค่าอย่างแท้จริงก็ต่อเมื่อมีความโปร่งใสเกี่ยวกับข้อจำกัดของตนเอง ด้วยเครื่องมือวัดความไม่แน่นอนขั้นสูงอย่าง Capsa คุณสามารถนำวิสัยทัศน์นี้ไปปฏิบัติจริงได้