Top.Mail.Ru
В России предложили законодательно запретить ИИ-манипуляции сознанием

В России предложили законодательно запретить ИИ-манипуляции сознанием

Разработчики систем искусственного интеллекта (ИИ) в России могут получить новую обязанность — предупреждать пользователей о недопустимости использования нейросетей для манипулирования поведением и эксплуатации уязвимостей человека.

Такая норма содержится в законопроекте об искусственном интеллекте, подготовленном Минцифры. Документ, который в настоящий момент проходит этап межведомственного согласования, может стать одним из первых в России специализированных актов, регулирующих этические и правовые аспекты взаимодействия человека с «умными» алгоритмами.

Термин «эксплуатация уязвимостей» в документе раскрывается широко: под ним понимается использование возрастных, социально-экономических, психологических и иных состояний человека для целенаправленного воздействия на его поведение, процесс принятия решений или для получения несанкционированного доступа к информации. Проще говоря, под запрет могут попасть алгоритмы, которые специально «давят на слабые места» пользователя, подталкивая его к выгодным для кого-то, но неосознанным для него самого действиям.

«Темные паттерны» в эпоху нейросетей

Эксперты отмечают, что опасения законодателей вполне обоснованы и базируются на уже существующих технологических возможностях. Ведущий эксперт в области ИИ «Университета 2035» Ярослав Селиверстов поясняет, что современные системы ИИ способны влиять на поведение человека через глубокий анализ данных и гиперперсонализацию контента. Подбирая сообщения, рекомендации или даже интерфейсы в реальном времени, алгоритмы могут повышать вероятность нужного действия, усиливая доверие, чувство срочности или конкретную эмоциональную реакцию.

«Запрет распространяется прежде всего на операторов и разработчиков систем ИИ — то есть на организации и компании, которые внедряют такие системы в сервисы, приложения или продукты. По сути, „объяснить“ это роботу можно так: система ИИ не должна проектироваться или использоваться таким образом, чтобы сознательно подталкивать человека к решениям, которые он бы не принял без скрытого давления или манипуляции», — подчеркивает Селиверстов.

Речь идет о так называемых «темных паттернах» (dark patterns), но выведенных на новый, интеллектуальный уровень. Если раньше это были статичные уловки в интерфейсе, то теперь ИИ способен адаптировать манипуляцию под конкретного человека в конкретный момент.

Реклама, агрегаторы и «охота на слабых»

Сфера применения потенциальных нарушений широка. Генеральный директор TelecomDaily Денис Кусков обращает внимание на уже обсуждаемые в медиа кейсы с агрегаторами такси, которые якобы повышают цены для пользователей с разряжающимся смартфоном — тех, кто находится в заведомо уязвимом положении и готов заплатить больше, чтобы быстрее добраться до зарядки. Аналогичные риски существуют в сфере онлайн-торговли, где ИИ анализирует историю покупок и текущее состояние, чтобы навязывать ненужные товары.

Председатель правления АНО «Центр беспилотных систем и технологий» (ЦБСТ) Андрей Безруков видит еще более опасные сценарии: «Злоумышленники или недобросовестные компании могут использовать ИИ для гиперперсонализированного мошенничества. Искусственный интеллект анализирует данные о человеке и генерирует идеально подобранные сообщения — дипфейки голоса родственника, „индивидуальные“ предложения от фейкового банка именно в тот момент, когда человек наиболее уязвим».

Международный контекст и сложность реализации

Российская инициатива развивается в русле глобального тренда на регулирование ИИ. В мае 2024 года Совет ЕС утвердил первый в мире всеобъемлющий закон об искусственном интеллекте (AI Act), который напрямую относит когнитивно-поведенческое манипулирование людьми и уязвимыми группами к системам с «неприемлемым риском». Такие технологии в Европе окажутся под полным запретом. Санкции за нарушения там могут достигать €35 млн или 7% мирового оборота компании. В Казахстане закон об ИИ, подписанный в конце 2025 года, также прямо запрещает эксплуатацию систем, использующих манипулятивные методы и уязвимости граждан.

Однако эксперты сомневаются в простоте реализации подобных запретов. Руководитель практики по разрешению IT- и IP-споров RMGP (Rustam Kurmaev & Partners) Ярослав Шицле отмечает проблему экстерриториальности: «Вопрос эффективности этих мер связан с тем, находится ли офис соответствующих компаний в России. Законодатель может обязать российских владельцев платформ внедрять такие протоколы под страхом ответственности, но ведущие мировые нейросети — нет».

Кроме того, сложность представляет отделение полезной рекомендации от вредной манипуляции. Президент Ассоциации «Цифровые платформы» Ораз Дурдыев предупреждает о рисках чрезмерного вмешательства: «Дальнейшее вмешательство в алгоритмы может привести к обратному эффекту — предвзятой выдаче, ограничению доступа к информации и субъективности. Чтобы избежать этого, бизнесу и государству важно тесно сотрудничать для сохранения баланса».

Партнер ComNews Research Леонид Конич добавляет, что если применять закон буквально, то под запрет может попасть вся персонализированная онлайн-реклама, что нанесет удар по цифровой экономике.

На данный момент законопроект находится в стадии обсуждения, и окончательная редакция документа с конкретными механизмами контроля и мерами ответственности еще не сформирована. В пресс-службе Минцифры подчеркнули, что развитие технологий ИИ является важным направлением, но их использование должно неукоснительно соблюдать права и интересы граждан.

С уважением к Вашему делу, Ника Виноградова

Источник: Retail.ru

Политика конфиденциальности

Наш сайт использует файлы cookies, чтобы улучшить работу и повысить эффективность сайта. Продолжая работу с сайтом, вы соглашаетесь с использованием нами cookies и политикой конфиденциальности.

Принять