MIT ทำการวิจัยเพื่อทำให้ AI ฉลาดขึ้น

ทีม MIT สอนโมเดล AI ให้เรียนรู้สิ่งที่พวกมันยังไม่รู้

การประยุกต์ใช้ปัญญาประดิษฐ์ (AI) กำลังเติบโตอย่างรวดเร็วและผสานเข้ากับชีวิตประจำวันของเราและอุตสาหกรรมที่มีความเสี่ยงสูงเช่น การดูแลสุขภาพ โทรคมนาคมและพลังงานมากขึ้นเรื่อย ๆ แต่ด้วยพลังอันยิ่งใหญ่ก็มีความรับผิดชอบที่ยิ่งใหญ่เช่นกัน: ระบบ AI บางครั้งทำผิดพลาดหรือให้คำตอบที่ไม่แน่นอนซึ่งอาจมีผลกระทบร้ายแรง

Themis AI ของ MIT ซึ่งก่อตั้งร่วมและนำโดยศาสตราจารย์ Daniela Rus จากห้องปฏิบัติการ CSAIL นำเสนอวิธีแก้ปัญหาเชิงปฏิวัติ เทคโนโลยีของพวกเขาช่วยให้โมเดล AI สามารถรู้ว่าตนไม่รู้อะไร หมายความว่าระบบ AI สามารถบ่งบอกได้เองเมื่อมีความไม่แน่นอนเกี่ยวกับการพยากรณ์ของตน ทำให้สามารถป้องกันข้อผิดพลาดก่อนที่จะก่อให้เกิดความเสียหาย

ทำไมเรื่องนี้ถึงสำคัญขนาดนี้?
โมเดล AI จำนวนมาก แม้จะเป็นโมเดลที่ก้าวหน้า ก็อาจแสดงอาการที่เรียกว่า การหลอน — ให้คำตอบที่ผิดหรือไม่มีพื้นฐาน ในภาคส่วนที่การตัดสินใจมีความสำคัญสูง เช่น การวินิจฉัยทางการแพทย์หรือการขับขี่อัตโนมัติ สิ่งนี้อาจก่อให้เกิดผลลัพธ์ที่หายนะ Themis AI ได้พัฒนา Capsa แพลตฟอร์มที่ใช้การประเมินความไม่แน่นอน: วัดและกำหนดค่าความไม่แน่นอนของผลลัพธ์ AI อย่างละเอียดและเชื่อถือได้

 ทำงานอย่างไร?
โดยการสอนให้โมเดลรับรู้ความไม่แน่นอน พวกเขาสามารถใส่ป้ายความเสี่ยงหรือความเชื่อมั่นให้กับผลลัพธ์ได้ ตัวอย่างเช่น รถยนต์ขับอัตโนมัติสามารถบ่งบอกว่าตนไม่แน่ใจในสถานการณ์หนึ่งและจึงเรียกการแทรกแซงของมนุษย์ การทำเช่นนี้ไม่เพียงเพิ่มความปลอดภัยเท่านั้น แต่ยังเสริมความเชื่อมั่นของผู้ใช้ต่อระบบ AI ด้วย

ตัวอย่างการดำเนินการทางเทคนิค

  • เมื่อทำการรวมกับ PyTorch การห่อหุ้มโมเดลทำผ่าน capsa_torch.wrapper() โดยผลลัพธ์ประกอบด้วยการพยากรณ์และความเสี่ยงทั้งสองอย่าง:

Python example met capsa

สำหรับโมเดล TensorFlow Capsa ทำงานด้วย decorator:

TensorFlow

ผลกระทบต่อธุรกิจและผู้ใช้
สำหรับ NetCare และลูกค้าของเรา เทคโนโลยีนี้หมายถึงก้าวสำคัญอย่างยิ่ง เราสามารถให้บริการแอปพลิเคชัน AI ที่ไม่เพียงแค่ฉลาด แต่ยังปลอดภัยและคาดการณ์ได้ดียิ่งขึ้นด้วยความเสี่ยงของการหลอนที่น้อยลง ช่วยให้องค์กรทำการตัดสินใจที่มีพื้นฐานดียิ่งขึ้นและลดความเสี่ยงเมื่อนำ AI ไปใช้ในแอปพลิเคชันที่สำคัญต่อธุรกิจ

สรุป
MIT ทีม แสดงให้เห็นว่าอนาคตของ AI ไม่ได้เพียงแค่มุ่งเน้นการฉลาดขึ้นเท่านั้น แต่ยังมุ่งเน้นการทำงานที่ปลอดภัยและยุติธรรมมากขึ้น ที่ NetCare เราเชื่อว่า AI จะมีคุณค่าอย่างแท้จริงเมื่อโปร่งใสต่อข้อจำกัดของตนเอง ด้วยเครื่องมือการประเมินความไม่แน่นอนขั้นสูงเช่น Capsa คุณก็สามารถนำวิสัยทัศน์นี้สู่การปฏิบัติได้

Gerard

Gerard ทำงานเป็นที่ปรึกษา AI และผู้จัดการอย่างแข็งขัน ด้วยประสบการณ์มากมายในองค์กรขนาดใหญ่ เขาสามารถแยกปัญหาได้อย่างรวดเร็วและมุ่งสู่การแก้ไขได้อย่างมีประสิทธิภาพ การผสมผสานกับพื้นฐานด้านเศรษฐศาสตร์ทำให้เขาตัดสินใจเลือกทางเลือกที่รับผิดชอบต่อธุรกิจ