การประยุกต์ใช้ปัญญาประดิษฐ์ (AI) กำลังเติบโตอย่างรวดเร็วและเข้ามามีบทบาทในชีวิตประจำวันของเรามากขึ้นเรื่อยๆ รวมถึงในอุตสาหกรรมที่มีความสำคัญสูง เช่น การดูแลสุขภาพ โทรคมนาคม และพลังงาน แต่ด้วยพลังที่ยิ่งใหญ่ย่อมมาพร้อมกับความรับผิดชอบที่ยิ่งใหญ่ ระบบ AI บางครั้งอาจเกิดข้อผิดพลาดหรือให้คำตอบที่ไม่แน่นอน ซึ่งอาจส่งผลกระทบตามมาอย่างใหญ่หลวง
ทำไมเรื่องนี้ถึงสำคัญ?
โมเดล AI จำนวนมาก แม้จะเป็นรุ่นที่ล้ำสมัย ก็ยังสามารถเกิดสิ่งที่เรียกว่า 'อาการหลอน' (Hallucinations) ได้ คือการให้คำตอบที่ผิดพลาดหรือไม่มีมูลความจริง ในภาคส่วนที่การตัดสินใจมีผลกระทบสูง เช่น การวินิจฉัยทางการแพทย์หรือระบบขับเคลื่อนอัตโนมัติ สิ่งนี้อาจนำไปสู่ผลลัพธ์ที่เลวร้ายได้ Themis AI จึงได้พัฒนา Capsa ซึ่งเป็นแพลตฟอร์มที่ใช้การวัดปริมาณความไม่แน่นอน (Uncertainty Quantification) เพื่อวัดและประเมินความไม่แน่นอนของผลลัพธ์จาก AI อย่างละเอียดและเชื่อถือได้
มันทำงานอย่างไร?
การทำให้โมเดลมีความตระหนักรู้ถึงความไม่แน่นอน (Uncertainty Awareness) จะช่วยให้สามารถระบุระดับความเสี่ยงหรือความน่าเชื่อถือให้กับผลลัพธ์ได้ ตัวอย่างเช่น รถยนต์ไร้คนขับสามารถแจ้งเตือนได้ว่าระบบไม่มั่นใจในสถานการณ์ที่เกิดขึ้น จึงจำเป็นต้องให้มนุษย์เข้ามาควบคุมแทน สิ่งนี้ไม่เพียงแต่ช่วยเพิ่มความปลอดภัย แต่ยังช่วยสร้างความเชื่อมั่นให้กับผู้ใช้งานที่มีต่อระบบ AI อีกด้วย
capsa_torch.wrapper() โดยที่ผลลัพธ์ที่ได้จะประกอบด้วยทั้งการคาดการณ์และระดับความเสี่ยง:
บทสรุป
ทีมงานจาก MIT ทีมงาน แสดงให้เห็นว่าอนาคตของ AI ไม่ได้ขึ้นอยู่กับการฉลาดขึ้นเพียงอย่างเดียว แต่ยังรวมถึงการทำงานที่ปลอดภัยและยุติธรรมยิ่งขึ้น ที่ NetCare เราเชื่อว่า AI จะมีคุณค่าอย่างแท้จริงก็ต่อเมื่อมันมีความโปร่งใสเกี่ยวกับข้อจำกัดของตัวมันเอง ด้วยเครื่องมือวัดปริมาณความไม่แน่นอนขั้นสูงอย่าง Capsa คุณสามารถนำวิสัยทัศน์นี้ไปปรับใช้จริงได้