Замглавы Минэкономразвития: мировой опыт поможет России внедрить искусственный интеллект

— Оксана Валерьевна, искусственный интеллект уже есть, а законов о нем нет, так?
— Пока есть только Национальная стратегия развития ИИ до 2030 года, которую утвердил президент России. И недавно принятая Концепция регулирования технологий ИИ и робототехники. И сейчас мы как раз занимаемся разработкой плана-графика по нормативно-правовым актам для развития ИИ на период до 2024 года.
В нем около 80 нормативно-правовых актов. Все они разделены по группам. К первой относятся законопроекты общего характера, связанные с персональными данными, регуляторными "песочницами", гражданской ответственностью и так далее. Ко второй — вопросы эффективного внедрения ИИ в те отрасли, где на данный момент существуют барьеры нормативного характера. В ближайшее время планируем доработать план и утвердить его уже в конце этого — начале следующего года.
— Какие вопросы считаете важным отрегулировать в первую очередь? Чем мешает отсутствие регулирования? Разве это не дает большую свободу?
— Нет, это не так. Например, вопрос регламентации правоотношений в сфере персональных данных. Сегодня существуют немного устаревшие нормы, которые часто не соответствуют лучшим мировым практикам. Нужно отрегулировать эту деликатную сферу так, чтобы соблюсти баланс между защитой интересов отдельных людей и развитием технологий.
В частности, мы хотим создать механизм анонимизации данных, чтобы невозможно было определить человека, которому эти данные принадлежат, даже если их получится сопоставить
Вот над этим сейчас работаем.
Еще одна сфера — развитие принятого в июле закона о так называемых регуляторных песочницах. Сейчас активно работаем над сопутствующими нормативно-правовыми актами, в которых будет детализировано регулирование отдельных сфер, в частности отраслевого законодательства в связи с внедрением технологии ИИ.
— Что еще мешает развитию ИИ в России?
— Существуют сложности, связанные с низкой эффективностью совмещения систем ИИ с информационными системами, есть проблемы оценки экономического эффекта от внедрения систем ИИ и риски искусственной монополизации отдельных интеллектуальных технологий. Сейчас мы разрабатываем стандарты, которые обеспечат поддержку направления "Искусственный интеллект" за счет снятия такого рода нормативно-технических барьеров.
— В этом плане Россия идет своим путем или заимствует опыт других стран?
— Мы, разумеется, ориентируемся в том числе на опыт наших зарубежных коллег, анализируя и прорабатывая их положительные и отрицательные результаты.
В Китае, например, уже вовсю идут эксперименты с алгоритмами и бизнес-моделями, в которых используется ИИ. Но, как показывает опыт, национальная стратегия развития искусственного интеллекта выступает лишь катализатором общественных отношений. Само развитие ИИ, его разработка, повсеместное внедрение и использование еще впереди. Китайский План развития технологий ИИ только ссылается на необходимость разработки законов и этических норм развития этой технологии и предусматривает к 2024 году создание специальных законов для ИИ.
В Национальной стратегии Индии 2018 года делается акцент на том, что искусственный интеллект — это "черный ящик", что ИИ должен быть контролируемым, а разработки — ответственными, и рассматривается регулирование в контексте вопросов этики и безопасности. Лишь в 2019 году в другом индийском документе стратегического планирования выделяется отдельный раздел, где отмечается необходимость корректировки законодательства в сфере данных, антимонопольного и потребительского законодательства, отдельных отраслевых правовых актов.
— Какая модель регулирования нам ближе?
— Наиболее близким, конечно, для нас является опыт европейских коллег.
"Белую книгу об искусственном интеллекте", принятую Еврокомиссией в 2020 году, можно смело назвать единственным аналогом российской концепции
В ней прописаны правила использования искусственного интеллекта.
В частности, говорится о том, что при внедрении ИИ в сферах с высокой степенью риска, таких как здравоохранение и транспорт, системы искусственного интеллекта должны быть прозрачны, чтобы их можно было подчинить контролю со стороны человека.
Одновременно с Еврокомиссией очень важная работа ведется в CAHAI, в зону ответственности которого передана разработка и имплементация правовой рамки для технологий искусственного интеллекта с учетом стандартов Европейского союза. Эти исследования предусматривают необходимость выработки общепринятого определения ИИ, составление карты рисков и возможностей, связанных с ИИ, особенно в отношении его воздействия на права человека, верховенство права и демократию, а также возможность для продвижения вперед по пути к созданию юридически обязывающих рамок.
Источник: https://tass.ru/interviews/9994427