Постановление ЕС об искусственном интеллекте: за нарушение требований грозят миллионные штрафы

На прошлой неделе депутаты стран Европейского союза достигли соглашения касательно постановления об искусственном интеллекте (ИИ), целью которого является обеспечение безопасного и ответственного использования ИИ.
"Речь идет о новаторском нормативно-правовом акте, который регулирует как развитие систем ИИ, так и их вывод на рынок, предложение и использование", – отметил присяжный адвокат адвокатского бюро Hedman Тоомас Сеппель.
За нарушение требований постановления об искусственном интеллекте предусмотрены миллионные штрафы. Например, нарушителю требований в будущем может грозить штраф в размере до 7,5 млн евро или 1,5% от годового оборота компании. В случае крупных глобальных предприятий штрафы могут достигать 35 млн евро и составлять до 7% мирового оборота.
"Суммы штрафов зависят как от серьезности нарушения, так и от размера и оборота предприятия. Такой сильный механизм контроля важен для предотвращения нарушений и обеспечения эффективной защиты прав людей, способствуя ответственному развитию и использованию искусственного интеллекта", – пояснил Сеппель.
Однако связанная с постановлением прозрачность очень важна: при общении с людьми системы ИИ должны сообщать пользователю, что он общается с машиной. Это касается, например, автоматической идентификации на пограничном контроле, чат-ботов в службе поддержки клиентов, а также Snapchat и ChatGPT.
Кроме того, люди, использующие искусственно созданные дипфейки должны указывать, что контент генерируется искусственным интеллектом. Штрафы для частных лиц не предусмотрены, но это не исключает ответственности пользователя дипфейка на общих основаниях, например, в случае клеветы.
Постановление впервые вводит концепцию искусственного интеллекта общего назначения (GPAI). Наиболее известными из них в настоящее время являются ChatGPT, Bard и DALL-E, то есть те системы, которые могут выполнять множество различных задач, таких как генерация текстов, изображений или звуков. В будущем системы GPAI должны соответствовать требованиям прозрачности.
Постановление также регулирует более мощные модели GPAI, которые могут вызвать системный риск. Наиболее известные из них – OpenAI (GPT-3, GPT-4), DeepMind (AlphaGo, AlphaFold) и IBM (IBM Watson), к ним будут применяться дополнительные обязательства.
Системы ИИ с низким, высоким и запрещенным уровнями риска
Присяжный адвокат пояснил, что постановление классифицирует системы искусственного интеллекта на три категории, в зависимости от потенциального риска: низкий, высокий и запрещенный.
На разрешенные системы ИИ распространяются общие требования прозрачности, такие как составление технической документации, соблюдение требований авторского права и раскрытие сводных данных, используемых во время обучения. Дополнительные обязательства и запреты налагаются на генерирующие системы с большим воздействием и системы с запрещенным риском.
На системы ИИ с высоким риском возлагаются обширные обязательства, такие как создание системы управления рисками, подготовка и обновление технической документации, соблюдение требований прозрачности и обеспечение контроля со стороны человека. Примерами систем искусственного интеллекта с высоким уровнем риска являются системы, используемые в жизненно важной инфраструктуре, медицинских устройствах, а также в правоохранительных органах и правосудии.
Евросоюз достиг консенсуса о том, что системы искусственного интеллекта, представляющие угрозу основным правам человека, будут классифицироваться как системы с запрещенным уровнем риска, а их разработка и использование в Евросоюзе будут запрещены. К запрещенным системам относятся, например, биометрические системы и базы данных распознавания лиц, использующие конфиденциальную информацию. Например, запрещено распознавание эмоций на рабочем месте и в учебных заведениях, а также системы, манипулирующие бессознательным поведением людей и использующие их уязвимые места.
Эстония разрабатывает свою стратегию искусственного интеллекта
Постановление об искусственном интеллекте теперь ожидает дальнейшего уточнения и принятия законодателями ЕС. Эстония в настоящее время разрабатывает собственную стратегию искусственного интеллекта, основанную на постановлении ЕС, которая предоставляет инструкции и создает стандарты, а также более систематически рассматривает способы обеспечения надежности ИИ и снижения рисков как при разработке, так и при использовании ИИ.
Ожидается, что постановление об искусственном интеллекте будет одобрено на уровне комиссий в ближайшие две недели. Затем оно будет вынесено на пленарное голосование ЕС в Европейском парламенте, которое, как ожидается, состоится в апреле.
Редактор: Ольга Звягинцева