Риски и развитие. Как в Кыргызстане намерены регулировать искусственный интеллект?
По мере развития искусственного интеллекта возникает все больше вопросов, касающихся его регулирования. Насколько это необходимо на данном этапе в Кыргызстане? Что об этом думают эксперты и депутаты? Что уже сделано?
Эти и другие вопросы обсудили на Центральноазиатском киберюридическом форуме.
Мнение экспертов и депутатов
Разработчики из Кыргызстана рассматривают искусственный интеллект как инструмент для выхода на глобальный рынок IT, считает директор Парка высоких технологий Азис Абакиров.
Нам не нужно губить технологию, вводить излишнее регулирование. У нас сохранилась более-менее свобода в интернете.
"Конечно, нужно учитывать этические и другие угрозы, которые несет ИИ. Но разработчики видят в ИИ выход на глобальный рынок. В этом году президент США выделил $500 млрд на развитие ИИ, а потом в Китае появился DeepSeek. А у нас небольшое количество ребят пытаются с ними конкурировать", - уточнил он.
Таким образом, представители IT-сообщества рассматривают ИИ прежде всего как экономическую возможность, а не угрозу, которая требует срочных ограничений. Схожую позицию озвучивают и парламентарии. Депутат Жогорку Кенеша Дастан Бекешев отметил, что к вопросу регулирования искусственного интеллекта в Кыргызстане нужно подходить крайне осторожно.
"Когда мы говорим о регулировании, я опасаюсь других вещей, особенно в Центральной Азии, на постсоветском пространстве. Что у нас обычно понимают под регулированием? Какой-нибудь запрет", - сказал Бекешев.
Бекешев добавил, что в Кыргызстане развиваются свои проекты в области ИИ, например, Akyl AI или AiRun.
Но это все можно загубить. И очень легко. Просто зарегулировать это все.
"Я считаю, что в Центрально-Азиатском регионе нужно обратить внимание на то, что происходит в Европе и других странах", - уточнил он.
Бекешев добавил, что Европа может ввести резкое регулирование искусственного интеллекта и влиять на такие крупные компании, как OpenAI, Google, Meta и другие.
"Можем ли мы? Нет, им будет от этого только смешно. Почему? Потому что рынок потребления очень маленький. И вот у нас музыку создают с помощью ИИ, но уже начали думать, как это запретить. Видеогенерацию - то же самое. Чтобы не было дипфейков. Я боюсь, что такого рода запреты навредят нам и не дадут раскрыться тем талантам, которые у нас есть. Но пока мы можем сказать, что у нас имеются наработки в сфере искусственного интеллекта", - добавил Бекешев.
Фактически речь идет о страхе повторения привычной для региона практики - использования ограничений, а не комплексного развития с учетом имеющихся рисков.
Некоторые эксперты в области защиты данных предлагают отделять технологию и злоупотребления, которые могут быть связаны с ее использованием.
"Когда говорят о необходимости регулирования, в разных опять же юрисдикциях упоминается о том, что мошенники могут использовать технологию. Но важно понимать, что мошенники могут использовать все что угодно", - сказал руководитель отдела по защите данных Yango Group Денис Садовников и добавил, что "регулирование искусственного интеллекта не должно восприниматься как запрет".
В качестве возможного ориентира для региона часто рассматривается пример других стран. Пока что в мире имеется несколько концептуальных подходов к регулированию искусственного интеллекта - европейский, базирующийся на правах человека, англосаксонский - на саморегулировании и сингапурский - учитывающий как права человека, так и саморегулирование, рассказала депутат Мажилиса Казахстана Екатерина Смышляева.
"В Казахстане выбрали модель, в которую собрали лучшее из подходов. Противоправные действия действительно должны быть в фокусе, и часть запретительных механизмов регулирования должны быть, конечно, привязаны исключительно к противоправным действиям", - сказала она.
При этом Смышляева отметила, что многие алгоритмические решения ИИ могут быть не противоправными, но наносить вред обществу. Депутат Мажилиса уточнила: в Казахстане был разработан и принят закон об искусственном интеллекте, в нем предусмотрены меры по поддержке развития технологий, позиции регулятора в отношении выбора модели регулирования, использования авторских прав.
В данной ситуации у соседей предусмотрен равный доступ разработчиков к большим данным и вычислительным ресурсам, который регулируется законодательными актами. В вопросах позиции регулятора учитываются этические вопросы и внимание к высокорисковым технологиям. "Если говорить точнее - системам высокой степени автономности. Подход дифференцированный - остальные участники рынка могут развиваться в формате саморегулирования", - добавила она.
В вопросе соблюдения авторских прав при использовании искусственного интеллекта в Казахстане разрешили обучение крупных моделей на открытых авторских произведениях, если автор заранее не установил машиночитаемый запрет. "То есть мы пошли от обратного принципа: по умолчанию использование допускается, а защита действует только в том случае, если автор явно выразил несогласие с применением его контента", - объяснила Смышляева. Такой подход позволяет снижать риски и не ограничивать развитие рынка на этапе зарождения.
ИИ в Цифровом кодексе
Нормы о регулировании искусственного интеллекта уже заложены в Цифровом кодексе Кыргызстана, рассказал депутат Дастан Бекешев. Развитие технологии в данном случае рассматривается согласно принципу "технологической нейтральности".
"Это значит, что мы регулируем не сам алгоритм, а сферу его применения. Если ИИ используется, например, в финтехе для скоринга кредитов - там действуют правила финансового регулятора. Если в медицине для диагностики - правила Минздрава. Мы не стали создавать какого-то "цифрового монстра", который будет надзирать за каждой строчкой кода", - сказал депутат.
Ведущий партнер консорциума по разработке цифрового законодательства Татту Мамбеталиева разъяснила, что главная задача Цифрового кодекса - отказаться от административного регулирования. Взамен предлагается взаимодействие с государством на четырех уровнях. Первый - телеком-секторы, поскольку это фундамент технологий. Второй - на уровне систем, третий - сервисов, четвертый - данных (основного элемента, который объединяет все уровни).
Цифровой кодекс относит системы искусственного интеллекта, используемые для обеспечения цифрового благополучия, к категории повышенного риска. Владельцы и пользователи ИИ, независимо от уровня опасности таких систем, обязаны принимать разумные меры для снижения возможного вреда и несут ответственность за его причинение по законодательству Кыргызстана.
При этом конкретные правила и стандарты разработки и применения ИИ государство фактически передает профессиональному сообществу. Их могут устанавливать объединения владельцев ИИ-систем. Такие регламенты должны охватывать вопросы профессиональной этики, оценки рисков, управления данными, качества разработки и эксплуатации систем и не противоречить положениям кодекса.
Отдельное внимание уделяется прозрачности. Если ИИ используется для взаимодействия с потребителями, пользователи обязаны прямо уведомлять об этом, за исключением случаев, когда присутствие алгоритма очевидно. Информация о применении ИИ в цифровых правоотношениях считается общедоступной и должна размещаться в понятной форме на сайтах компаний и отраслевого регулятора национальной экосистемы.
Дополнительные требования вводятся для чувствительных технологий. Пользователи систем распознавания эмоций и классификации людей по биометрическим признакам обязаны отдельно информировать о применении таких решений. Аналогичное правило действует и для дипфейков: использование ИИ для создания или изменения контента должно сопровождаться раскрытием его искусственного происхождения.
На данном этапе Кыргызстан делает ставку на осторожное регулирование искусственного интеллекта без жестких запретов - с акцентом на саморегулирование, ответственность за вред и прозрачность использования технологий. Такой подход должен сохранить пространство для развития локальных ИИ-проектов, не отсекая рынок на старте, но при этом обозначить "красные линии" для высокорисковых и чувствительных решений. Главным вопросом остается: удастся ли удержать этот баланс на практике.
Фото на главной странице: Shutterstock.



