Россия готовится к тотальному регулированию искусственного интеллекта. Новый законопроект Минцифры, который вступит в силу с 1 сентября 2027 года, разделит всех на «доверенных» и «остальных», заставит маркировать любой контент от нейросетей и вынудит их размещать серверы внутри страны. Разбираемся, кому это выгодно, а кому придётся несладко.
Если вы просто пользуетесь нейросетями для развлечения или работы, закон затронет вас в трёх случаях.
Во-первых, вас должны предупреждать. Если сайт или приложение использует ИИ для ответов или решений, вам обязаны об этом сообщить. Покупаете билет у бота-оператора? Вам скажут, что это бот.
Во-вторых, контент от нейросетей промаркируют. Картинки, видео, тексты, сгенерированные ИИ, должны содержать специальную метку. Чтобы вы не приняли фейк за реальность.
В-третьих, вы сможете отказаться от ИИ. В некоторых случаях (каких именно — позже решит правительство) вам обязаны предоставить услугу без участия искусственного интеллекта. По старинке, с живым человеком.
И да, если вы сами генерируете контент и удаляете метку «сделано нейросетью» — вы нарушите закон. Пока неизвестно, как за это будут пороть и наказывать.
Во Вторую мировую войну уже были компьютеры. Одни, как легендарная «Энигма», были размером со швейную машинку. Другие занимали целое помещение на борту линкора. О роботах мечтали лишь фантасты. Наш соотечественник Исаак Озимов, известный как Айзек Азимов, в 1942 году выработал три закона роботехники:
Чиновники теперь догоняют мысли великого фантаста и ратуют за нашу безопасность. Переживают, как бы ИИ не натворил дел без их ведома.
Власти хотят понимать, на какой информации обучаются нейросети, не нарушают ли они законы и не утекают ли чувствительные сведения за границу. Чиновники намерены воспрепятствовать генерации экстремисткого и террористического контента. Они хотят, чтобы все данные хранились на российских серверах, а критически важные модели разрабатывались гражданами РФ под контролем отечественного капитала.
Чиновники пекутся о нас с вами. Они заставят операторов дать нам знать: общаемся ли мы с ботом или с живым оператором, а ролик в интернете — реальная съёмка или дипфейк. Звучит красиво. Но есть нюансы. Эксперт в сфере ИИ Александр Жадан неоднозначно оценил инициативу:
А вот для обычных пользователей плюсы совсем не очевидны.
Гражданам это может быть не надо. Более надёжные и повседневные ИИ-ассистенты вроде ChatGPT, Claude или Gemini отвечают по международным данным, используют более широкий опыт, а не ограниченный российский контекст. Они более передовые и многофункциональные
Жадану сложно оправдать ужесточение правил в этой передовой отрасли в 2027 году.
Эксперты видят в этом и прагматичный смысл (безопасность), и политический контекст (санкционные риски, борьба с оттоком данных). Россия создаёт свою, суверенную вселенную искусственного интеллекта. Со своими правилами, собственными серверами и стандартами безопасности.
Что в итоге?
Закон ещё могут доработать — обсуждение продлится до 15 апреля 2026 года. Но вектор уже понятен: искусственный интеллект в России будет работать по-русски. На российских данных, на отечественных серверах и под госконтролём.