MIT doet onderzoek om AI slimmer te maken

Команда MIT учит модели ИИ тому, чего они ещё не знали.

Применение искусственного интеллекта (ИИ) стремительно растёт и всё глубже проникает в нашу повседневную жизнь и критически важные отрасли, такие как здравоохранение, телеком и энергетика. Но с большой силой приходит и большая ответственность: ИИ-системы иногда ошибаются или дают неуверенные ответы, которые могут иметь серьёзные последствия.

Themis AI от MIT, соучреждённая и возглавляемая профессором Даниэлой Рус из лаборатории CSAIL, предлагает прорывное решение. Их технология позволяет моделям ИИ «знать, чего они не знают». Это означает, что системы ИИ могут сами указывать, когда они испытывают неуверенность в своих прогнозах, что позволяет предотвратить ошибки до того, как они приведут к ущербу.

Почему это так важно?
Многие модели ИИ, даже продвинутые, иногда демонстрируют так называемые «галлюцинации» — они выдают ошибочные или необоснованные ответы. В секторах, где решения имеют серьёзные последствия, таких как медицинская диагностика или автономное вождение, это может привести к катастрофическим последствиям. Themis AI разработала Capsa — платформу, которая применяет количественную оценку неопределённости (uncertainty quantification): она измеряет и количественно оценивает неопределённость вывода ИИ подробно и надёжно.

 Как это работает?
Обучая модели осознавать свою неопределённость (uncertainty awareness), можно снабжать их выводы меткой риска или надёжности. Например, автономный автомобиль может сигнализировать о неопределённости в конкретной ситуации и инициировать вмешательство человека. Это повышает не только безопасность, но и доверие пользователей к системам ИИ.

Примеры технической реализации

  • При интеграции с PyTorch обёртывание модели выполняется через capsa_torch.wrapper() в результате чего выход содержит как прогноз, так и оценку риска:

Python example met capsa

Для моделей TensorFlow Capsa работает с декоратором:

tensorflow

Влияние для бизнеса и пользователей
Для NetCare и её клиентов эта технология означает огромный шаг вперёд. Мы можем поставлять ИИ-приложения, которые не только интеллектуальны, но и безопасны, более предсказуемы и реже демонстрируют галлюцинации. Это помогает организациям принимать более обоснованные решения и снижать риски при развертывании ИИ в критически важных приложениях.

Заключение
MIT команда это показывает, что будущее ИИ заключается не только в повышении интеллекта, но прежде всего в более безопасной и справедливой работе. В NetCare мы уверены, что ИИ становится по-настоящему ценным, когда он прозрачен в отношении собственных ограничений. С помощью продвинутых инструментов количественной оценки неопределённости, таких как Capsa, вы можете воплотить эту концепцию в практику.

Герард

Джерард работает в роли консультанта по ИИ и менеджера. Благодаря большому опыту в крупных организациях он очень быстро распутывает проблему и работает над её решением. В сочетании с экономическим образованием это обеспечивает принятие коммерчески обоснованных решений.