Риски ИИ и способы его регулирования

Григорий Урьев 25.09.2024
Реклама. Рекламодатель: АО "Синтерра Медиа", ИНН 7729545238.
erid: 2VtzqvHeY7S

Любая информация, которую синтезирует искусственный интеллект, –  собирательная. ИИ подбирает похожие факты, которые могут не иметь ничего общего с реальностью. Например, ИИ с удовольствием расскажет рецепт "свиных крылышек" и как их приготовить. Существует даже устоявшийся термин "ИИ галлюцинирует", то есть достоверно придумывает. Отвечая на запрос пользователя, ИИ предполагает вероятное следующее слово, основываясь на массиве предыдущих данных. Примерно по такому принципу выстроены подсказки в мессенджерах смартфонов.

В сфере коммуникации посредством социальных медиа эта проблема уже обозначена как требующая верификации, то есть сверки с реальностью. Вполне возможно, что следующим станет ручное творчество или то, что проверено человеком.

Для минимизации рисков должен быть утвержден маркер для аудио- и видеопродукции и сноска для текста, если он был значительно модернизирован или полностью синтезирован ИИ. Также для верификации через онлайн должно быть ограничение на изменение данных фото, видео и аудио. Осуществить это можно через удостоверяющие центры, аналогично тому, как сейчас существует система доверенных сертификатов электронных цифровых подписей. Иными словами, весь контент, сгенерированный нейронными сетями, не имеющими доверенного сертификата, должен быть законодательно запрещен к распространению.

Кроме того, следует учитывать вопросы информационной безопасности (ИБ). Все модели ИИ обучаются на датасетах (набор данных). Сейчас появились новые виды кибератак, загрязняющих датасеты (dataset poisoning), чтобы результаты были измененными как требуется атакующему. Поэтому особое внимание требуется защите исходных данных, на которых обучаются модели.

 

Об авторе

Григорий Урьев
Генеральный директор компании "Синтерра Медиа"