В Казахстане уже действует законодательная база, регулирующая сферу искусственного интеллекта, и она направлена на защиту прав граждан и снижение наиболее опасных рисков. Вместе с тем при использовании иностранных платформ и сервисов полная защита со стороны национального законодательства возможна не всегда. Об этом рассказала депутат Мажилиса Екатерина Смышляева.
По ее словам, закон об искусственном интеллекте включает пакет норм прямого действия, которые должны минимизировать риски мошенничества, утечки данных, манипуляций, дискриминации и других угроз. Казахстан выбрал риск-ориентированную модель регулирования, в рамках которой закреплены запрещенные практики — то есть такие функции ИИ-систем, которые могут нарушать права и свободы человека.
В частности, закон не допускает манипуляции, дискриминацию по признакам, закрепленным в Конституции, а также ограничивает применение отдельных скоринговых моделей, если для этого нет прямого правового основания. Речь идет о случаях, когда система на основе анализа поведения делает выводы, способные ограничить права человека, например повлиять на решение о приеме на работу, доступе к определенной деятельности или в отдельные пространства. Такие практики запрещены, если они не предусмотрены законом и не основаны на прозрачных правилах.
Смышляева пояснила, что скоринговые модели уже применяются в ряде сфер, в том числе в банках и социальной сфере. Там они используются на основе больших данных, например для оценки статуса человека и проактивного оказания помощи. Однако, как подчеркнула депутат, проблема возникает тогда, когда подобные инструменты начинают использоваться для непрозрачных решений, затрагивающих права граждан.
Отдельно она отметила различие между скорингом и таргетированным воздействием. По ее словам, таргетинг связан скорее с формированием вокруг человека определенного информационного пузыря и навязыванием повестки. При этом сами ИИ-модели не являются субъектами права, поэтому ответственность в любом случае несет человек, который принимает решение с использованием такой системы.
Системы разделили по уровню риска
Одним из ключевых механизмов закона стала градация ИИ-систем по уровню риска. К системам высокого риска относятся решения, связанные с жизнью и здоровьем человека, обработкой больших объемов данных, включая персональные, а также с другими чувствительными сферами. Для них предусмотрены особые требования и более жесткое регулирование.
Системы среднего и низкого риска пока не подпадают под столь строгие механизмы. Это сделано для того, чтобы развитие технологического рынка не сдерживалось избыточным регулированием на раннем этапе.
Кроме того, закон учитывает степень автономности ИИ-систем. По словам депутата, системы с высокой автономностью, включая потенциально беспилотные решения, должны регулироваться именно законом, а не только подзаконными актами. Это означает, что массовое бытовое использование таких технологий нельзя будет разрешить только на уровне ведомственных документов.
Локальные ИИ-системы для закрытых данных
Смышляева также выделила значение локальных систем искусственного интеллекта. Это решения, которые работают в закрытом контуре, без подключения к внешнему интернету в момент использования. Такие системы особенно важны в критических сферах, где обрабатываются персональные данные, информация ограниченного доступа, государственные и отраслевые тайны, а также там, где необходимо исключить внешнее влияние.
По ее словам, локальные модели важны не только с точки зрения технической безопасности, но и для защиты от идеологических и ценностных искажений, которые могут присутствовать во внешних глобальных моделях. В качестве примера она привела сферу образования, где ИИ, по ее мнению, должен работать с учетом национального культурного и мировоззренческого контекста.
Депутат подчеркнула, что защита граждан строится не вокруг одного закона об ИИ, а вокруг всей системы цифрового регулирования. В нее входят нормы о защите персональных данных, кибербезопасности, цифровом суверенитете и правилах обращения с цифровой информацией.
Риски иностранных платформ
При этом, как отметила Смышляева, значительная часть современных рисков возникает не в государственных сервисах, а при повседневном использовании иностранных платформ, приложений и нейросетей. В таких случаях возможности государства по защите пользователей ограничены, поскольку человек вступает в отношения с компаниями из другой юрисдикции, которые могут не иметь представительства в Казахстане.
По словам депутата, в подобных ситуациях отношения между пользователем и платформой обычно строятся на пользовательском соглашении. Фактически это договор присоединения: человек либо принимает его условия, либо отказывается от использования сервиса. Смышляева назвала такой механизм слабым инструментом защиты, особенно с учетом того, что большинство пользователей не читают соглашения или не могут повлиять на их содержание.
Источник: www.inform.kz