Сегодня Европейский парламент согласовал предложенные правила об искусственном интеллекте, которые впоследствии должны быть формально приняты странами-членами ЕС. Новые правила нацелены на то, чтобы упростить определение контента, созданного искусственным интеллектом, включая дипфейки, и полностью запретить использование искусственного интеллекта в биометрическом наблюдении, распознавании эмоций и прогнозировании преступного поведения.

Новые правила предусматривают, что такие ИИ-инструменты, как ChatGPT от OpenAI, должны ясно указывать, что контент создан искусственным интеллектом, и нести некоторую ответственность за обеспечение информированности пользователей о том, является ли изображение поддельным или настоящим. Это выглядит как сложная задача, поскольку после создания изображения сложно ограничить способы его распространения пользователем, но, возможно, компании-разработчики искусственного интеллекта должны будут разобраться с этим в ближайшем будущем.

Если новые правила будут приняты Европейским парламентом в их текущем виде, модели искусственного интеллекта будут должны предоставить «подробные резюме» использованных при обучении авторских данных. В частности, для OpenAI это означало бы необходимость раскрыть свои обучающие данные для своих масштабных моделей GPT-3 и GPT-4, которые сейчас не доступны для ознакомления. Существуют большие наборы данных, используемые для обучения моделей искусственного интеллекта, которые уже делают эти данные доступными, например, LAION-5B.

Также будут полностью запрещены некоторые виды использования ИИ, особенно те, которые могут нарушать права на конфиденциальность граждан ЕС:

  • Системы удаленной биометрической идентификации в реальном времени и «постфактум» в общедоступных местах

  • Системы биометрической категоризации, использующие определенные характеристики (например, пол, раса, этническая принадлежность, гражданство, религия, политическая ориентация)

  • Системы предиктивной полиции (на основе профилирования, местоположения или прошлого криминального поведения)

  • Системы распознавания эмоций в правоохранительных органах, управлении границами, на работе и в учебных заведениях

  • Неспецифическое сбор информации с лиц из интернета или видеонаблюдения для создания баз данных для распознавания лиц (нарушение прав человека и права на конфиденциальность)

Эти правила еще не приняты в виде закона. Прежде чем это произойдет, государства-члены могут внести свои предложения, и этот процесс начнется уже сегодня.

Похоже, что ЕС намерен удостовериться, что он контролирует использование искусственного интеллекта и его потенциальные применения, насколько это возможно.