Технологии стремительно развиваются, а искусственный интеллект захватывает всё больше сфер человеческой жизни. Законодатели уверены, что необходимо урегулировать цифровую сферу. Новый документ может быть разработан в ближайшие 2-3 года.
За разработку Цифрового кодекса совсем скоро возьмутся российские законодатели. В нем планируют написать про ответственность разработчиков ИИ, разработать классификацию умных цифровых систем на опасные и безопасные и закрепить маркировку контента, сгенерированного нейросетями, пишет «Парламентская газета».
Несмотря на то, что на сегодняшний день цифровые системы применяются не так уж и широко, необходимость задуматься о регулировании деятельности разработчиков, да и самого ИИ, возникла уже сейчас. Так, один из ключевых экспертов в области информационных технологий и искусственного интеллекта Игорь Ашманов уверен, что уже в ближайшие годы ИИ может начать «контролировать» образование и медицину.
Перед законодателями стоит тяжёлая задача по созданию совершенно новой отрасли российского права. Сейчас представители власти активно обсуждают все нюансы нового закона. Кроме того, юристам предстоит масштабная работа по дополнению и изменению уже существующих нормативно-правовых актов.
«Искусственный интеллект сейчас пытаются внедрить везде, — отметил Ашманов. — Простой пример: уже сегодня существуют «умные камеры», которые используются в том числе для распознавания лиц людей, находящихся в розыске. В этой сфере нет никаких законов. Правовой статус распознавания лиц никак не определен. Для понимания: даже гаишник, выходящий на дорогу с радаром, должен его предварительно поверить, опечатать и так далее. С этими же системами нет ничего подобного».
По словам директора Национального центра развития искусственного интеллекта при Правительстве Сергей Наквасина, у нас пока что нет даже терминологической базы — нигде не зафиксировано четкое определение самого искусственного интеллекта и многочисленных дополнительных понятий, которые с ним связаны. Нет систем классификации, по которым разные ИИ можно было бы однозначно определять как опасные и безопасные, не выработаны механизмы применения интеллектуальных систем в различных юридических и финансовых процессах и так далее.