MIT doet onderzoek om AI slimmer te maken

Команда MIT обучает модели ИИ тому, чего они еще не знали.

Применение искусственного интеллекта (ИИ) стремительно растет и все глубже проникает в нашу повседневную жизнь и в критически важные отрасли, такие как здравоохранение, телекоммуникации и энергетика. Но с большой силой приходит и большая ответственность: системы ИИ иногда допускают ошибки или дают неуверенные ответы, которые могут иметь серьезные последствия.

Themis AI от MIT, соучредителем и руководителем которой является профессор Даниэла Рус из лаборатории CSAIL, предлагает новаторское решение. Их технология позволяет моделям ИИ «знать, чего они не знают». Это означает, что системы ИИ могут сами указывать, когда они не уверены в своих прогнозах, что позволяет предотвратить ошибки до того, как они нанесут ущерб.

Почему это так важно?
Многие модели ИИ, даже самые передовые, иногда могут демонстрировать так называемые «галлюцинации» — они выдают ошибочные или необоснованные ответы. В отраслях, где решения имеют большой вес, таких как медицинская диагностика или автономное вождение, это может привести к катастрофическим последствиям. Themis AI разработала Capsa — платформу, которая применяет количественную оценку неопределенности (uncertainty quantification): она измеряет и квантифицирует неопределенность вывода ИИ детальным и надежным образом.

 Как это работает?
Обучая модели осознавать неопределенность, можно снабжать их выводы меткой риска или надежности. Например, беспилотный автомобиль может указать, что он не уверен в сложившейся ситуации, и активировать вмешательство человека. Это не только повышает безопасность, но и укрепляет доверие пользователей к системам ИИ.

Примеры технической реализации

  • При интеграции с PyTorch оборачивание модели осуществляется через capsa_torch.wrapper() при этом вывод состоит как из прогноза, так и из риска:

Python example met capsa

Для моделей TensorFlow Capsa использует декоратор:

tensorflow

Влияние на бизнес и пользователей
Для NetCare и ее клиентов эта технология означает огромный шаг вперед. Мы можем предоставлять приложения на базе ИИ, которые не только интеллектуальны, но и безопасны, более предсказуемы и менее подвержены галлюцинациям. Это помогает организациям принимать более обоснованные решения и снижать риски при внедрении ИИ в критически важные бизнес-приложения.

Заключение
MIT Команда показывает, что будущее ИИ заключается не только в повышении интеллекта, но и, прежде всего, в более безопасном и справедливом функционировании. В NetCare мы верим, что ИИ становится по-настоящему ценным только тогда, когда он прозрачен в отношении собственных ограничений. С помощью передовых инструментов количественной оценки неопределенности, таких как Capsa, вы также можете реализовать это видение на практике.

Герард

Герард работает в качестве консультанта и менеджера по ИИ. Обладая большим опытом работы в крупных организациях, он способен исключительно быстро разобраться в проблеме и найти решение. В сочетании с экономическим образованием это обеспечивает принятие коммерчески обоснованных решений.

AIR (Робот искусственного интеллекта)