
Регулирование ИИ: нужны ли законы и стандарты для развития искусственного интеллекта в России?
Сегодня системы на базе ИИ участвуют в решениях, кому выдать кредит, как лечить пациентов и кого пригласить на собеседование. Одна ошибка ИИ — десятки жалоб и испорченная репутация организации. Хотим ли мы работать с "черным ящиком" без четко определенных правил? Нужны правила и нормы, которые будут понятны и бизнесу, и людям. Об этом и других моментах рассказывают сооснвоатели Plevako.ai Егор Тайков и Игорь Гуняшов.
Текущая ситуация в России
%left-img-1%
Национальная стратегия развития ИИ до 2030 года задает цели и приоритеты: кадры, исследования, внедрение, стандартизация и этика. Это общий рамочный, а не детальный регулятивный документ. Он предоставляет определять конкретные требования к разработке и использованию ИИ-систем отраслевым актам .
Федеральный закон о персональных данных выделяет правовые основания обработки данных, права граждан, условия трансграничной передачи, обязанности операторов и Роскомнадзора. Это юридическая база законной и безопасной работы ИИ.
Закон об экспериментальных правовых режимах позволяет запускать "песочницы": временно смягчать отдельные нормы, тестировать цифровые сервисы, проводить оценку рисков и масштабировать удачные практики.
Кодекс этики в сфере ИИ — добровольный свод принципов для разработчиков и заказчиков: безопасность, недискриминация, ответственность, качество данных и прозрачность. Документ помогает компаниям говорить в одних терминах и устанавливает общие принципы работы.
Технический комитет 164 при Росстандарте адаптирует ключевые международные стандарты: терминологию, архитектуры, управление рисками, защиту от дискриминации и объяснимость решений ИИ.
Зачем нужен отдельный контур регулирования
В высокорисковых сферах — кредиты, медицина, трудоустройство — нужны понятные правила: уровень качества, возможность проверить решение и ясная ответственность. Чем выше риск, тем должны быть строже правила. Управление рисками — повседневная работа: вовремя замечать проблемы, оценивать их и устранять. Доверие к ИИ-системам обеспечивается простыми шагами. Необходимо вести записи о работе, сохранять результаты этапов принятия решений и уметь объяснить результат.
"Песочницы" — испытания ИИ в безопасных условиях: сначала дают доступ ограниченному кругу пользователей, заранее объясняют правила, следят за рисками и оценивают результаты. Такой подход помогает запускать новые решения быстрее и с меньшим количеством ошибок.
Показателен пример "песочницы" с тестами роботакси: за время эксперимента провели десятки тысяч поездок, произошло 36 ДТП, и только 2 — по вине беспилотника; пострадавших не было. Эксперимент продлят и обновят условия, чтобы доработать технологию и аккуратно расширять маршруты.
Аргументы против избыточного регулирования
Цена соблюдения требований: для бизнеса лишние процессы — это снижение скорости разработки и сокращение ресурсов на исследования. Жесткие нормы успевают устареть до вступления в силу, поэтому нужны технологически нейтральные формулировки и обновляемые перечни правил. Уже есть базовые рамки: данные, безопасность продукции, ответственность за вред — перегрузка дублирующими нормами не повысит безопасность.
Международный опыт США, ОАЭ и Китая
Как ИИ регулируют в США: единого "закона об ИИ" нет — правила складываются из нескольких документов. Опора — рекомендации NIST по управлению рисками ИИ: как планировать применение, проверять безопасность и качество. Президентский указ №14110 требует проверять наиболее мощные системы дополнительно и обязательно помечать сгенерированный контент. Акцент регулирования — на безопасности, прозрачности и ответственности без лишнего торможения внедрений.
В ОАЭ также делают ставку на быстрый рост без жесткого "закона об ИИ": есть общая стратегия до 2031 года, много пилотных проектов и простые практические гайды. Правительство привлекает компании и таланты, назначило министра по ИИ, создало совет по использованию технологий. Контроль рисков строится не на запретах, а на управлении конкретными сценариями и лицензировании. Экосистема ИИ растет за счет саммитов GITEX, развития университетов и лабораторий (в т.ч. MBZUAI) и обучения чиновников. Это ускоряет внедрение, но оставляет долгосрочные риски. Эти риски снижают с помощью координации между частями экосистемы и соблюдения правил кибербезопасности.
В Китае сначала дали рынку ИИ вырасти, затем ввели стандарты, а сейчас вводят прямые правила для конкретных технологий. Уже работают нормы для алгоритмических рекомендаций (с 2022), "глубокого синтеза" — маркировка дипфейков, регистрация алгоритмов (с 2023), и меры для генеративного ИИ — оценка безопасности, обучение на "законных данных", обработка жалоб. Основу составляют законы о кибербезопасности и данных, на подходе — закон об ИИ с идеей "разумного" использования данных, защищенных авторским правом, при обучении моделей. Акцент — безопасность, контроль влияния на общество и защита прав при поддержке технологического развития.
Выводы
Вместо "большого" единого закона сейчас важнее закрепить ясные требования для высокорисковых сфер (кредитование, медицина, занятость) на базе уже существующих инструментов — стратегии до 2030 г., закона о персональных данных, режимов "песочниц", этического кодекса и стандартов ТК‑164. Нужны минимальные пороги качества, проверяемость и объяснимость решений, ведение отчетности, понятное распределение ответственности, регулярные тесты и мониторинг в эксплуатации. "Песочницы" стоит расширять — они снижают ошибки и ускоряют масштабирование (что видно на примере роботакси).
Гипотетический пример: банк хочет использовать ИИ для решений по кредитам. Что нужно сделать:
- Сначала пилотный запуск на 6 месяцев в "песочнице": маленькая группа клиентов, ограниченные суммы.
- Простые правила на пилоте: запрет дискриминации, порог по точности, ведение отчетности. Каждому отказу — короткое человеческое объяснение. Вводится понятный канал жалоб.
- Перед расширением — внешняя проверка качества и безопасности независимыми экспертами.
- Затем постепенное расширение: больше клиентов и сумм, раз в квартал — короткий отчет о точности, жалобах и исправлениях.
- В случае успешного пилота эти требования закрепляются регулятором как обязательные для всех банков.
Международный опыт показывает, что эффективны либо гибкие рамки и стандарты с ведомственным надзором (США, ОАЭ), либо точечные обязательные правила под конкретные технологии (Китай). Монолитный закон будет устаревать быстро и вредить предпринимательству. Для России оптимальна комбинированная модель: технологически нейтральные нормы верхнего уровня и обновляемые перечни требований и стандартов. Если все же готовить единый закон, он должен оставаться рамочным и настраивать экосистему, а не дублировать действующие акты.