MIT team at work

Команда Массачусетского технологического института обучает модели ИИ тому, чего они еще не знали.

Применение искусственного интеллекта (ИИ) быстро растет и все больше переплетается с нашей повседневной жизнью и высокорисковыми отраслями, такими как здравоохранение, телекоммуникации и энергетика. Но с большой силой приходит и большая ответственность: системы ИИ иногда допускают ошибки или дают неопределенные ответы, которые могут иметь серьезные последствия.

Themis AI от MIT, соучредителем и руководителем которого является профессор Даниэла Рус из лаборатории CSAIL, предлагает новаторское решение. Их технология позволяет моделям ИИ «знать, чего они не знают». Это означает, что системы ИИ могут сами указывать, когда они не уверены в своих прогнозах, что позволяет предотвратить ошибки до того, как они нанесут ущерб.

Почему это так важно?
Многие модели ИИ, даже самые продвинутые, иногда могут демонстрировать так называемые «галлюцинации» — они дают ошибочные или необоснованные ответы. В секторах, где решения имеют большой вес, таких как медицинская диагностика или автономное вождение, это может иметь катастрофические последствия. Themis AI разработала Capsa, платформу, которая применяет количественную оценку неопределенности: она измеряет и количественно определяет неопределенность вывода ИИ подробным и надежным способом.

 Как это работает?
Прививая моделям осведомленность о неопределенности, они могут снабжать выводы меткой риска или надежности. Например: самоуправляемый автомобиль может указать, что он не уверен в ситуации, и поэтому активировать вмешательство человека. Это не только повышает безопасность, но и доверие пользователей к системам ИИ.

Примеры технической реализации

  • При интеграции с PyTorch обертывание модели осуществляется через capsa_torch.wrapper(), при этом вывод состоит как из прогноза, так и из риска:

Python example met capsa

Для моделей TensorFlow Capsa работает с декоратором:

tensorflow

Влияние на компании и пользователей
Для NetCare и ее клиентов эта технология означает огромный шаг вперед. Мы можем предоставлять приложения ИИ, которые не только интеллектуальны, но также безопасны и более предсказуемы с меньшей вероятностью галлюцинаций. Это помогает организациям принимать более обоснованные решения и снижать риски при внедрении ИИ в критически важные бизнес-приложения.

Заключение
Команда MIT показывает, что будущее ИИ заключается не только в том, чтобы стать умнее, но и в том, чтобы функционировать безопаснее и справедливее. В NetCare мы считаем, что ИИ становится по-настоящему ценным только тогда, когда он прозрачен в отношении своих собственных ограничений. С помощью передовых инструментов количественной оценки неопределенности, таких как Capsa, вы также можете воплотить это видение в жизнь.

Gerard

Gerard

Герард — активный консультант и менеджер в области искусственного интеллекта. Обладая обширным опытом работы в крупных организациях, он способен исключительно быстро выявлять проблемы и находить решения. В сочетании с экономическим образованием он обеспечивает принятие обоснованных бизнес-решений.

AIR (Artificial Intelligence Robot)