MIT วิจัยเพื่อทำให้ AI ฉลาดขึ้น

ทีมงาน MIT สอนโมเดล AI ในสิ่งที่พวกเขายังไม่รู้

การประยุกต์ใช้ปัญญาประดิษฐ์ (AI) กำลังเติบโตอย่างรวดเร็ว และผสานเข้ากับชีวิตประจำวันของเราและอุตสาหกรรมที่มีความเสี่ยงสูง เช่น การดูแลสุขภาพ โทรคมนาคม และพลังงานมากขึ้นเรื่อยๆ แต่ด้วยพลังที่ยิ่งใหญ่ ย่อมมาพร้อมกับความรับผิดชอบที่ยิ่งใหญ่: ระบบ AI บางครั้งอาจทำผิดพลาดหรือให้คำตอบที่ไม่แน่นอน ซึ่งอาจส่งผลกระทบร้ายแรงได้

Themis AI ของ MIT ซึ่งร่วมก่อตั้งและนำโดยศาสตราจารย์ Daniela Rus จากห้องปฏิบัติการ CSAIL นำเสนอโซลูชันที่ล้ำสมัย เทคโนโลยีของพวกเขาช่วยให้โมเดล AI สามารถ 'รู้ว่าตัวเองไม่รู้อะไร' ซึ่งหมายความว่าระบบ AI สามารถระบุได้เมื่อพวกเขามีความไม่แน่นอนเกี่ยวกับการคาดการณ์ของตนเอง ทำให้สามารถป้องกันข้อผิดพลาดได้ก่อนที่จะก่อให้เกิดความเสียหาย

ทำไมสิ่งนี้จึงสำคัญมาก?
โมเดล AI จำนวนมาก แม้แต่โมเดลที่ล้ำสมัย ก็อาจแสดงสิ่งที่เรียกว่า 'ภาพหลอน' (hallucinations) ได้ นั่นคือการให้คำตอบที่ผิดพลาดหรือไม่มีมูลความจริง ในภาคส่วนที่มีการตัดสินใจที่มีน้ำหนักมาก เช่น การวินิจฉัยทางการแพทย์หรือการขับขี่อัตโนมัติ สิ่งนี้อาจนำไปสู่ผลลัพธ์ที่เลวร้ายได้ Themis AI ได้พัฒนา Capsa ซึ่งเป็นแพลตฟอร์มที่ใช้การวัดปริมาณความไม่แน่นอน (uncertainty quantification): โดยการวัดและหาปริมาณความไม่แน่นอนของผลลัพธ์ AI ในลักษณะที่ละเอียดและเชื่อถือได้

 ทำงานอย่างไร?
ด้วยการสอนให้โมเดลตระหนักถึงความไม่แน่นอน พวกเขาสามารถระบุผลลัพธ์ด้วยป้ายกำกับความเสี่ยงหรือความน่าเชื่อถือได้ ตัวอย่างเช่น รถยนต์ขับเคลื่อนอัตโนมัติสามารถระบุได้ว่าไม่แน่ใจเกี่ยวกับสถานการณ์และเปิดใช้งานการแทรกแซงของมนุษย์ สิ่งนี้ไม่เพียงแต่เพิ่มความปลอดภัย แต่ยังเพิ่มความไว้วางใจของผู้ใช้ในระบบ AI อีกด้วย

ตัวอย่างการนำไปใช้งานทางเทคนิค

  • เมื่อรวมกับ PyTorch การห่อหุ้มโมเดลผ่าน capsa_torch.wrapper() โดยที่ผลลัพธ์ประกอบด้วยทั้งการทำนายและความเสี่ยง:

Python example met capsa

สำหรับโมเดล TensorFlow, Capsa ใช้งานร่วมกับ decorator:

tensorflow

ผลกระทบต่อธุรกิจและผู้ใช้งาน
สำหรับ NetCare และลูกค้า เทคโนโลยีนี้ถือเป็นก้าวสำคัญอย่างยิ่ง เราสามารถส่งมอบแอปพลิเคชัน AI ที่ไม่เพียงแต่ชาญฉลาดเท่านั้น แต่ยังปลอดภัยและคาดการณ์ได้ดีขึ้น โดยมีโอกาสเกิดภาพหลอน (hallucinations) น้อยลง สิ่งนี้ช่วยให้องค์กรสามารถตัดสินใจได้อย่างมีข้อมูลสนับสนุนมากขึ้น และลดความเสี่ยงในการนำ AI ไปใช้ในแอปพลิเคชันที่สำคัญต่อธุรกิจ

บทสรุป
MIT ทีม แสดงให้เห็นว่าอนาคตของ AI ไม่ได้เป็นเพียงเรื่องของการฉลาดขึ้นเท่านั้น แต่ยังรวมถึงการทำงานที่ปลอดภัยและยุติธรรมยิ่งขึ้นด้วย ที่ NetCare เราเชื่อว่า AI จะมีคุณค่าอย่างแท้จริงก็ต่อเมื่อมีความโปร่งใสเกี่ยวกับข้อจำกัดของตนเอง ด้วยเครื่องมือวัดความไม่แน่นอนขั้นสูง เช่น Capsa คุณสามารถนำวิสัยทัศน์นั้นมาปฏิบัติได้จริง

เจอราด

Gerard ทำงานเป็นที่ปรึกษาและผู้จัดการด้าน AI ด้วยประสบการณ์มากมายในองค์กรขนาดใหญ่ เขาสามารถคลี่คลายปัญหาและมุ่งสู่การแก้ไขได้อย่างรวดเร็ว ประกอบกับพื้นฐานทางเศรษฐศาสตร์ ทำให้เขาสามารถตัดสินใจทางธุรกิจได้อย่างสมเหตุสมผล

หุ่นยนต์ปัญญาประดิษฐ์ (AIR)