Применение искусственного интеллекта (ИИ) быстро растёт и всё больше проникает в нашу повседневную жизнь и отрасли с высоким риском, такие как здравоохранение, телекоммуникации и энергетика. Но с большой силой приходит и большая ответственность: системы ИИ иногда совершают ошибки или дают неопределённые ответы, которые могут иметь серьёзные последствия.
Почему это так важно?
Многие модели ИИ, даже продвинутые, иногда могут проявлять так называемые «галлюцинации» — они дают ошибочные или необоснованные ответы. В секторах, где решения имеют большой вес, таких как медицинская диагностика или автономное вождение, это может привести к катастрофическим последствиям. Themis AI разработала Capsa, платформу, применяющую количественную оценку неопределённости: она измеряет и количественно оценивает неопределённость вывода ИИ детально и надёжно.
Как это работает?
Обучая модели осведомлённости об неопределённости, они могут помечать выводы меткой риска или надёжности. Например, автономный автомобиль может указать, что он не уверен в ситуации, и активировать вмешательство человека. Это повышает не только безопасность, но и доверие пользователей к системам ИИ.
capsa_torch.wrapper() при этом вывод состоит как из предсказания, так и из оценки риска:
Заключение
MIT команда показывает, что будущее ИИ заключается не только в том, чтобы стать умнее, но прежде всего в более безопасном и честном функционировании. В NetCare мы считаем, что ИИ становится действительно ценным только тогда, когда он прозрачен относительно своих ограничений. С помощью продвинутых инструментов количественной оценки неопределённости, таких как Capsa, вы можете воплотить эту концепцию в практику.