MIT team at work

Команда MIT учит модели ИИ тому, чего они еще не знали.

Применение искусственного интеллекта (ИИ) быстро растет и все больше переплетается с нашей повседневной жизнью и высокорисковыми отраслями, такими как здравоохранение, телекоммуникации и энергетика. Но с большой силой приходит и большая ответственность: системы ИИ иногда совершают ошибки или дают неопределенные ответы, которые могут иметь серьезные последствия.

Themis AI от MIT, соучредителем и руководителем которого является профессор Даниэла Рус из лаборатории CSAIL, предлагает новаторское решение. Их технология позволяет моделям ИИ «знать, чего они не знают». Это означает, что системы ИИ могут сами указывать, когда они не уверены в своих прогнозах, что позволяет предотвратить ошибки до того, как они нанесут ущерб.

Почему это так важно?
Многие модели ИИ, даже самые продвинутые, иногда могут проявлять так называемые «галлюцинации» — давать ошибочные или необоснованные ответы. В секторах, где решения имеют большой вес, таких как медицинская диагностика или автономное вождение, это может иметь катастрофические последствия. Themis AI разработала Capsa, платформу, которая применяет количественную оценку неопределенности: она измеряет и количественно определяет неопределенность вывода ИИ детальным и надежным способом.

 Как это работает?
Обучая модели осведомленности о неопределенности, они могут снабжать выводы меткой риска или надежности. Например: самоуправляемый автомобиль может указать, что он не уверен в ситуации, и поэтому активировать вмешательство человека. Это не только повышает безопасность, но и доверие пользователей к системам ИИ.

Примеры технической реализации

  • При интеграции с PyTorch обертывание модели осуществляется через capsa_torch.wrapper(), при этом вывод состоит как из прогноза, так и из риска:

Python example met capsa

Для моделей TensorFlow Capsa работает с декоратором:

tensorflow

Влияние на компании и пользователей
Для NetCare и ее клиентов эта технология означает огромный шаг вперед. Мы можем предоставлять приложения ИИ, которые не только интеллектуальны, но и безопасны и более предсказуемы с меньшей вероятностью галлюцинаций. Это помогает организациям принимать более обоснованные решения и снижать риски при внедрении ИИ в критически важные бизнес-приложения.

Заключение
Команда MIT команда показывает, что будущее ИИ заключается не только в том, чтобы стать умнее, но, прежде всего, в том, чтобы функционировать безопаснее и справедливее. В NetCare мы считаем, что ИИ становится по-настоящему ценным только тогда, когда он прозрачен в отношении своих собственных ограничений. С помощью передовых инструментов количественной оценки неопределенности, таких как Capsa, вы также можете воплотить это видение в жизнь.

Gerard

Gerard

Герард работает консультантом и менеджером по ИИ. Благодаря большому опыту работы в крупных организациях он может очень быстро разобраться в проблеме и найти решение. В сочетании с экономическим образованием он обеспечивает принятие бизнес-обоснованных решений.

AIR (Artificial Intelligence Robot)