MIT проводит исследования, чтобы сделать ИИ умнее

Команда MIT обучает модели ИИ тому, чего они ещё не знали.

Применение искусственного интеллекта (ИИ) быстро растёт и всё более проникает в нашу повседневную жизнь и отрасли с высокими ставками, такие как здравоохранение, телекоммуникации и энергетика. Но с большой силой приходит и большая ответственность: системы ИИ иногда совершают ошибки или дают неопределённые ответы, которые могут иметь серьёзные последствия.

Themis AI от MIT, соучреждённый и возглавляемый профессором Даниэлой Рус из лаборатории CSAIL, предлагает прорывное решение. Их технология позволяет моделям ИИ «знать, чего они не знают». Это означает, что системы ИИ могут сами указывать, когда они не уверены в своих предсказаниях, что позволяет предотвратить ошибки до того, как они нанесут вред.

Почему это так важно?
Многие модели ИИ, даже продвинутые, иногда демонстрируют так называемые «галлюцинации» — они дают ошибочные или необоснованные ответы. В секторах, где решения имеют большое значение, таких как медицинская диагностика или автономное вождение, это может привести к катастрофическим последствиям. Themis AI разработала Capsa, платформу, применяющую количественную оценку неопределённости: она измеряет и количественно определяет степень неопределённости вывода ИИ подробно и надёжно.

 Как это работает?
Обучая модели осведомлённости об неопределённости, они могут помечать выводы меткой риска или надёжности. Например, автономный автомобиль может указать, что он не уверен в ситуации, и активировать вмешательство человека. Это повышает не только безопасность, но и доверие пользователей к системам ИИ.

Примеры технической реализации

  • При интеграции с PyTorch обёртка модели осуществляется через capsa_torch.wrapper() при этом вывод состоит как из предсказания, так и из оценки риска:

Python example met capsa

Для моделей TensorFlow Capsa работает с декоратором:

TensorFlow

Влияние на компании и пользователей
Для NetCare и её клиентов эта технология означает огромный шаг вперёд. Мы можем предоставлять решения ИИ, которые не только интеллектуальны, но и безопасны, более предсказуемы и с меньшей вероятностью вызывают галлюцинации. Это помогает организациям принимать более обоснованные решения и снижать риски при внедрении ИИ в критически важные бизнес‑приложения.

Заключение
MIT команда MIT показывает, что будущее ИИ заключается не только в том, чтобы стать умнее, но прежде всего в более безопасном и честном функционировании. В NetCare мы считаем, что ИИ станет действительно ценным только тогда, когда будет прозрачен в отношении своих ограничений. С помощью передовых инструментов количественной оценки неопределённости, таких как Capsa, вы можете воплотить эту концепцию в практику.

Жерар

Герард активно работает как AI‑консультант и менеджер. Имея большой опыт в крупных организациях, он может особенно быстро разобраться в проблеме и работать над её решением. В сочетании с экономическим образованием он обеспечивает бизнес‑ответственные решения.