Комитет по внутреннему рынку и Комитет по гражданским свободам 11 мая приняли проект первых в истории правил для искусственного интеллекта (ИИ). За проект проголосовали 84 человека, против – 7, воздержалось – 12.
Депутаты Европарламента стремятся обеспечить прозрачность, безопасность и недискриминационность систем ИИ. Кроме того, искусственный интеллект должен находиться под контролем людей, быть отслеживаемым и не причинять вреда окружающей среде. Депутаты также намерены получить единое определение ИИ, чтобы оно не зависело от конкретных технологий и его можно было бы применять к системам ИИ сегодняшнего и завтрашнего дня.
В зависимости от уровня риска, с которым будет связана работа с ИИ, будут установлены обязательства для поставщиков и пользователей ИИ. Системы ИИ с неприемлемым уровнем риска для безопасности людей будут строго запрещены. В том числе под запрет попадут системы, использующие подсознательные или целенаправленные манипулятивные методы, эксплуатирующие уязвимости людей или используемые для социальной оценки (например, классификация людей на основе их социального поведения, социально-экономического статуса, личных характеристик).
Будут запрещены:
- системы удаленной биометрической идентификации в режиме "реального времени" в общедоступных местах;
- системы "отложенной" удаленной биометрической идентификации. Единственное исключение делается для правоохранительных органов для уголовного преследования за тяжкие преступления и только после решения суда;
- системы биометрической категоризации с применением таких характеристик, как пол, раса, этническая принадлежность, гражданство, религиозные или политичечкие взгляды;
- прогностические полицейские системы (на основе профилирования, местонахождения или прошлого преступного поведения);
- системы распознавания эмоций в правоохранительных органах, пограничных службах, на рабочих местах и в учебных заведениях;
- неизбирательное извлечение биометрических данных из соцсетей или видеозаписей с камер видеонаблюдения для создания баз данных распознавания лиц (так как это является нарушением прав человека и права на неприкосновенность частной жизни).
Депутаты Европарламента расширили зону повышенного риска, включив в нее причинение вреда здоровью людей, нарушение безопасности и основополагающих прав, а также нанесение урона окружающей среде. В список высокого риска также попали системы ИИ, используемые для влияния на избирателей в политических кампаниях и рекомендательных алгоритмах, используемых социальными медиаплатформами с более чем 45 млн пользователей.
Для систем ИИ общего назначения были разработаны требования прозрачности. Так, им должны будут соответствовать генеративные нейросети, такие как GPT. Обязательным будет раскрытие информации о том, что контент сгенерирован ИИ, должна будет спроектирована модель, предотвращающая создание нелегального контента, а также публикацию защищенных авторским правом данных, которые были использованы для обучения.
Исключения из этих правил будут сделаны для исследовательской деятельности, а также для компонентов ИИ, предоставляемых по лицензии с открытым кодом.
Кроме того, депутаты Европарламента намерены расширить права граждан на подачу жалоб на системы ИИ, а также на получение разъяснений решений, основанных на системах ИИ с высоким уровнем риска, которые существенно влияют на их права.
- Войдите или зарегистрируйтесь, чтобы оставлять комментарии