За дипфейки собираются штрафовать в Казахстане – суммы назвала депутат

За создание и распространение дипфейков в Казахстане введут административную ответственность. Речь идёт о штрафах от 15 до 100 МРП (от 58 980 до 393 200 тенге согласно размеру МРП  в 2025 году). C уголовной ответственностью мажилисмены пока не определились, поскольку ещё рассматривают состав статьи, сообщает «Власть» со ссылкой на депутата Екатерину Смышляеву, которая накануне ответила на вопросы журналистов в кулуарах нижней палаты парламента.

Как отметила Смышляева, речь идет о дипфейках – когда используются персональные данные человека, его лицо и голос без согласия, а также о запрете распространения контента, который «манипулирует общественным мнением и вводит в заблуждение».

«Этот запрет мы предусмотрели. Пока наказание у нас для владельцев таких систем, с помощью которых созданы эти дипфейки, предполагается от 15 до 100 МРП. Это в зависимости от того, какой субъект бизнеса работает», — отметила депутат.

Кроме того, депутаты рассматривают варианты введения дополнительного состава в Уголовном кодексе в части распространения фейков. Однако, по словам Смышляевой, парламентарии только этот состав преступления обсуждают. А уже после этого перейдут к обсуждению ответственности.

Что с законопроектом об искусственном интеллекте

14 мая депутаты Мажилиса одобрили в первом чтении законопроект об искусственном интеллекте (ИИ), который, по словам авторов, должен защитить права граждан. Об этом пишет Bes.media

После вступления в силу закон, по задумке создателей, должен:

  • защитить права людей, чьи данные использует ИИ;
  • сделать работу ИИ прозрачной и безопасной;
  • установить чёткие правила для разработчиков и инвесторов, чтобы привлечь инвестиции;
  • создать Национальную платформу ИИ – общую базу данных и инструментов, доступную всем разработчикам;
  • ввести госпрограммы и финансирование исследований в этой сфере.

Разработчики предусмотрели и запреты на законодательном уровне. К примеру, запретят анализировать эмоции через ИИ без согласия людей, распознавать лица в общественных местах в реальном времени (кроме разрешённых случаев), пользоваться уязвимостью (например, возраст, инвалидность), создавать и распространять вредный контент от имени ИИ, включая дипфейки, использовать ИИ, который манипулирует людьми без их согласия.

Какие виды систем ИИ будут

Согласно проекту закона, нейросети будут делиться на помощников, полуавтономные и полностью автономные системы. Последние – под запретом. А если ИИ причинил вред человеку, ответственность несут его владельцы и операторы. Также вводится возможность страхования риска, если система ошиблась.

Проект предусматривает классификацию ИИ по уровням риска:

  • высокий – системы, влияющие на жизнь и здоровье людей, госуправление и принятие решений. Они подлежат строгому регулированию;
  • средний – требуют контроля, но с меньшими ограничениями;
  • низкий – такие системы не нуждаются в регулировании и развиваются свободно.

Также планируется создание Национальной платформы искусственного интеллекта, которая обеспечит базу для разработки и внедрения новых технологий. Возможно, разработчиков обяжут информировать пользователей, если они взаимодействуют с ИИ (например, с чат-ботами или с сервисами, предлагающими некие автоматические решения).

В законопроекте, по словам депутата, предусмотрены статьи:

  • по защите конфиденциальности;
  • по особенностям создания и предоставления библиотек данных в отношении их владельцев;
  • по обеспечению прозрачности данных, на которых учится искусственный интеллект;
  • по интеллектуальной собственности.

Контекст 

  • В 2024 году правительство Казахстана приняло стратегический документ для внедрения технологий искусственного интеллекта (ИИ) в различные сферы экономики. Концепция развития ИИ рассчитана на 2024 – 2029 годы. 

Фактчек в Казахстане и Центральной Азии. Первый центральноазиатский фактчекинговый ресурс. Открыт в мае 2017 года. Член Международной сети фактчекинговых организаций (IFCN)

Factcheck.kz