Применение искусственного интеллекта (ИИ) быстро растет и все больше проникает в нашу повседневную жизнь и критически важные отрасли, такие как здравоохранение, телекоммуникации и энергетика. Но с большой силой приходит и большая ответственность: системы ИИ иногда совершают ошибки или дают неуверенные ответы, которые могут иметь серьезные последствия.
Почему это так важно?
Многие модели ИИ, даже продвинутые, иногда могут демонстрировать так называемые «галлюцинации» — они дают неверные или необоснованные ответы. В секторах, где решения имеют большой вес, например, в медицинской диагностике или автономном вождении, это может привести к катастрофическим последствиям. Themis AI разработала Capsa, платформу, которая применяет количественную оценку неопределенности (uncertainty quantification): она измеряет и количественно оценивает неопределенность результатов ИИ детальным и надежным способом.
Как это работает?
Обучая модели осознанию неопределенности, можно снабжать их результаты меткой риска или надежности. Например: беспилотный автомобиль может сообщить, что он не уверен в ситуации, и поэтому активировать вмешательство человека. Это повышает не только безопасность, но и доверие пользователей к системам ИИ.
capsa_torch.wrapper() где результат состоит как из прогноза, так и из оценки риска:
Заключение
MIT команда показывает, что будущее ИИ заключается не только в том, чтобы становиться умнее, но прежде всего в том, чтобы функционировать безопаснее и честнее. В NetCare мы верим, что ИИ становится по-настоящему ценным только тогда, когда он прозрачен в отношении своих собственных ограничений. С помощью передовых инструментов количественной оценки неопределенности, таких как Capsa, вы также можете воплотить это видение в жизнь.