Применение искусственного интеллекта (ИИ) быстро растёт и всё более проникает в нашу повседневную жизнь и отрасли с высокими ставками, такие как здравоохранение, телекоммуникации и энергетика. Но с большой силой приходит и большая ответственность: системы ИИ иногда совершают ошибки или дают неопределённые ответы, которые могут иметь серьёзные последствия.
Themis AI от MIT, соучреждённый и возглавляемый профессором Даниэлой Рус из лаборатории CSAIL, предлагает прорывное решение. Их технология позволяет моделям ИИ «знать, чего они не знают». Это означает, что системы ИИ могут сами указывать, когда они не уверены в своих предсказаниях, что позволяет предотвратить ошибки до того, как они нанесут вред.
Почему это так важно?
Многие модели ИИ, даже продвинутые, иногда демонстрируют так называемые «галлюцинации» — они дают ошибочные или необоснованные ответы. В секторах, где решения имеют большое значение, таких как медицинская диагностика или автономное вождение, это может привести к катастрофическим последствиям. Themis AI разработала Capsa, платформу, применяющую количественную оценку неопределённости: она измеряет и количественно определяет степень неопределённости вывода ИИ подробно и надёжно.
Как это работает?
Обучая модели осведомлённости об неопределённости, они могут помечать выводы меткой риска или надёжности. Например, автономный автомобиль может указать, что он не уверен в ситуации, и активировать вмешательство человека. Это повышает не только безопасность, но и доверие пользователей к системам ИИ.
capsa_torch.wrapper() при этом вывод состоит как из предсказания, так и из оценки риска:

Заключение
MIT команда MIT показывает, что будущее ИИ заключается не только в том, чтобы стать умнее, но прежде всего в более безопасном и честном функционировании. В NetCare мы считаем, что ИИ станет действительно ценным только тогда, когда будет прозрачен в отношении своих ограничений. С помощью передовых инструментов количественной оценки неопределённости, таких как Capsa, вы можете воплотить эту концепцию в практику.