MIT проводит исследования, чтобы сделать ИИ умнее

Команда MIT обучает модели ИИ тому, чего они ещё не знали.

Применение искусственного интеллекта (ИИ) быстро растёт и всё больше проникает в нашу повседневную жизнь и отрасли с высоким риском, такие как здравоохранение, телекоммуникации и энергетика. Но с большой силой приходит и большая ответственность: системы ИИ иногда совершают ошибки или дают неопределённые ответы, которые могут иметь серьёзные последствия.

Почему это так важно?
Многие модели ИИ, даже продвинутые, иногда могут проявлять так называемые «галлюцинации» — они дают ошибочные или необоснованные ответы. В секторах, где решения имеют большой вес, таких как медицинская диагностика или автономное вождение, это может привести к катастрофическим последствиям. Themis AI разработала Capsa, платформу, применяющую количественную оценку неопределённости: она измеряет и количественно оценивает неопределённость вывода ИИ детально и надёжно.

 Как это работает?
Обучая модели осведомлённости об неопределённости, они могут помечать выводы меткой риска или надёжности. Например, автономный автомобиль может указать, что он не уверен в ситуации, и активировать вмешательство человека. Это повышает не только безопасность, но и доверие пользователей к системам ИИ.

Примеры технической реализации
  • При интеграции с PyTorch происходит обёртка модели через capsa_torch.wrapper() при этом вывод состоит как из предсказания, так и из оценки риска:
Python example met capsa
Для моделей TensorFlow Capsa работает с декоратором:
TensorFlow
Влияние на компании и пользователей
Для NetCare и её клиентов эта технология означает огромный шаг вперёд. Мы можем предоставлять решения ИИ, которые не только интеллектуальны, но и безопасны, более предсказуемы и с меньшей вероятностью вызывают галлюцинации. Это помогает организациям принимать более обоснованные решения и снижать риски при внедрении ИИ в критически важные бизнес‑приложения.

Заключение
MIT команда показывает, что будущее ИИ заключается не только в том, чтобы стать умнее, но прежде всего в более безопасном и честном функционировании. В NetCare мы считаем, что ИИ становится действительно ценным только тогда, когда он прозрачен относительно своих ограничений. С помощью продвинутых инструментов количественной оценки неопределённости, таких как Capsa, вы можете воплотить эту концепцию в практику.

Gerard

Герард работает как AI‑консультант и менеджер. Имея большой опыт в крупных организациях, он может особенно быстро разобрать проблему и работать над её решением. В сочетании с экономическим образованием он обеспечивает бизнес‑ответственные решения.