Cайт веб-разработчика, программиста Ruby on Rails ESV Corp. Екатеринбург, Москва, Санкт-Петербург, Новосибирск, Первоуральск

Нейросеть за меня написала, нейросеть за меня и диплом получит. Как в России хотят регулировать искусственный интеллект

Президент ГК InfoWatch, председатель правления АРПП «Отечественный софт» Наталья Касперская выступила с предложением урегулировать применение искусственного интеллекта в образовании. Инициативу она озвучила на заседании общественного совета при Минцифры 24 марта, сообщают «Ведомости». По словам главы InfoWatch, рабочая группа при Совете Федерации по вопросам регулирования ИИ готовит соответствующий законопроект.

В качестве аргумента она привела данные системы «Антиплагиат», согласно которым около 25% студентов используют искусственный интеллект (ИИ) при написании работ. При этом, по результатам опросов самих студентов, 87% признаются в использовании технологии. Такой разрыв, по словам Касперской, означает, что вузы не понимают, кого готовят, работодатели не знают, кого нанимают, а страна рискует «получить поколение совершенно необразованное».

Помимо образования, глава InfoWatch обратила внимание на социальные последствия распространения ИИ. По ее словам, технология уже сейчас заменяет специалистов ряда профессий, в том числе журналистов, юристов и младших программистов. Для защиты работников необходимо создать соответствующую нормативную базу, считает она.

Целью законопроекта не является ограничение ИИ, пояснила Касперская «Ведомостям». Технология развивается слишком быстро, и регулировать сам ИИ неправильно. Вместо этого следует сосредоточиться на вредном применении в социальной сфере, госуправлении и образовании, введя «санитарные правила» против бездумного использования. Конкретные положения законопроекта она не раскрыла.

Представитель Минцифры заявил, что ведомство рассматривает различные предложения по регулированию ИИ, в том числе от Совета Федерации, и придерживается подхода, при котором закон должен носить рамочный характер, а отраслевая специфика учитываться в отдельных нормативных актах.

Сейчас использование ИИ в России регулируется только через экспериментально-правовые режимы. Правительство прорабатывает собственный законопроект, в котором планируется определить критерии «российской» нейросети, вопросы авторского права, маркировки контента, обязанности и ответственность, сообщал представитель Григоренко. Вице-премьер заявлял о необходимости гибкого подхода и, в частности, признания использования ИИ для совершения преступлений отягчающим обстоятельством. 18 марта законопроект был опубликован для общественного обсуждения.

Исполнительный директор компании «Антиплагиат» Евгений Лукьянчиков указал, что основная проблема состоит в разграничении допустимых и недопустимых вариантов использования ИИ, для чего требуется проработка академической этики. По его словам, обнаружение сгенерированного контента технически возможно, но пока не со стопроцентной точностью. Сама детекция не является оценкой, а лишь указывает преподавателю на фрагменты для дополнительной проверки знаний студента, добавил Лукьянчиков.

Старший преподаватель ВШССН МГУ Тимофей Воронин отметил, что запретить и тем более отследить использование нейросетей студентами практически невозможно. По его мнению, приоритетом должно стать обучение корректному применению инструментов, поскольку главная проблема заключается в неумелом использовании: неправильные промпты, отсутствие проверки фактов приводят к появлению несуществующих источников и выдуманных данных.

Юрист HR-департамента Cloud.ru отметил, что при найме молодых специалистов навык работы с нейросетями чаще всего рассматривается как положительный или даже необходимый. По его словам, работодатели ожидают от вузов выпускников с навыками работы с ИИ.

Он также напомнил, что в январе 2026 года появились сообщения о возможном использовании ChatGPT при подготовке пояснительной записки к законопроекту Госдумы. В нижней палате тогда уточнили, что нейросеть применялась лишь для оперативного поиска источников, писали «Ведомости». Воронин считает, что использование нейросетей в законотворчестве может быть эффективным, но дополнительное регулирование применения ИИ в государственной сфере также необходимо для исключения потенциальных ошибок.

SecurityLab