MIT исследует, как сделать ИИ умнее

Команда MIT обучает модели ИИ тому, чего они еще не знали

Применение искусственного интеллекта (ИИ) быстро растет и все теснее переплетается с нашей повседневной жизнью и важнейшими отраслями, такими как здравоохранение, телекоммуникации и энергетика. Но с большой силой приходит и большая ответственность: системы ИИ иногда допускают ошибки или дают неуверенные ответы, которые могут иметь серьезные последствия.

Themis AI от MIT, соучредителем и руководителем которой является профессор Даниэла Рус из лаборатории CSAIL, предлагает новаторское решение. Их технология позволяет моделям ИИ «знать, чего они не знают». Это означает, что системы ИИ могут сами указывать на свою неуверенность в прогнозах, что позволяет предотвратить ошибки до того, как они нанесут ущерб.

Почему это так важно?
Многие модели ИИ, даже самые передовые, иногда могут демонстрировать так называемые «галлюцинации» — они дают ошибочные или необоснованные ответы. В отраслях, где решения имеют большой вес, таких как медицинская диагностика или автономное вождение, это может иметь катастрофические последствия. Themis AI разработала Capsa — платформу, которая применяет количественную оценку неопределенности (uncertainty quantification): она измеряет и количественно оценивает неопределенность результатов работы ИИ детальным и надежным образом.

 Как это работает?
Внедряя осведомленность о неопределенности в модели, можно снабжать их выходные данные меткой риска или надежности. Например, беспилотный автомобиль может указать, что он не уверен в ситуации, и поэтому активировать вмешательство человека. Это не только повышает безопасность, но и укрепляет доверие пользователей к системам ИИ.

Примеры технической реализации

  • При интеграции с PyTorch оборачивание модели через capsa_torch.wrapper() где вывод состоит как из прогноза, так и из риска:

Python example met capsa

Для моделей TensorFlow Capsa использует декоратор:

tensorflow

Влияние на бизнес и пользователей
Для NetCare и ее клиентов эта технология означает огромный шаг вперед. Мы можем поставлять приложения на базе ИИ, которые не только интеллектуальны, но и безопасны, более предсказуемы и имеют меньшую вероятность галлюцинаций. Это помогает организациям принимать более обоснованные решения и снижать риски при внедрении ИИ в критически важные бизнес-приложения.

Заключение
MIT команда показывает, что будущее ИИ заключается не только в повышении интеллекта, но и, прежде всего, в более безопасном и справедливом функционировании. В NetCare мы верим, что ИИ становится по-настоящему ценным только тогда, когда он прозрачен в отношении собственных ограничений. С помощью передовых инструментов количественной оценки неопределенности, таких как Capsa, вы также можете воплотить это видение в жизнь.

Герард

Жерар работает в качестве консультанта и менеджера по ИИ. Обладая большим опытом работы в крупных организациях, он способен исключительно быстро разобраться в проблеме и найти решение. В сочетании с экономическим образованием он обеспечивает принятие коммерчески обоснованных решений.

ИР (Искусственный Интеллектуальный Робот)