За создание и распространение дипфейков в Казахстане введут административную ответственность. Речь идёт о штрафах от 15 до 100 МРП (от 58 980 до 393 200 тенге согласно размеру МРП в 2025 году). C уголовной ответственностью мажилисмены пока не определились, поскольку ещё рассматривают состав статьи, сообщает «Власть» со ссылкой на депутата Екатерину Смышляеву, которая накануне ответила на вопросы журналистов в кулуарах нижней палаты парламента.
Как отметила Смышляева, речь идет о дипфейках – когда используются персональные данные человека, его лицо и голос без согласия, а также о запрете распространения контента, который «манипулирует общественным мнением и вводит в заблуждение».
«Этот запрет мы предусмотрели. Пока наказание у нас для владельцев таких систем, с помощью которых созданы эти дипфейки, предполагается от 15 до 100 МРП. Это в зависимости от того, какой субъект бизнеса работает», — отметила депутат.
Кроме того, депутаты рассматривают варианты введения дополнительного состава в Уголовном кодексе в части распространения фейков. Однако, по словам Смышляевой, парламентарии только этот состав преступления обсуждают. А уже после этого перейдут к обсуждению ответственности.
Что с законопроектом об искусственном интеллекте
14 мая депутаты Мажилиса одобрили в первом чтении законопроект об искусственном интеллекте (ИИ), который, по словам авторов, должен защитить права граждан. Об этом пишет Bes.media.
После вступления в силу закон, по задумке создателей, должен:
- защитить права людей, чьи данные использует ИИ;
- сделать работу ИИ прозрачной и безопасной;
- установить чёткие правила для разработчиков и инвесторов, чтобы привлечь инвестиции;
- создать Национальную платформу ИИ – общую базу данных и инструментов, доступную всем разработчикам;
- ввести госпрограммы и финансирование исследований в этой сфере.
Разработчики предусмотрели и запреты на законодательном уровне. К примеру, запретят анализировать эмоции через ИИ без согласия людей, распознавать лица в общественных местах в реальном времени (кроме разрешённых случаев), пользоваться уязвимостью (например, возраст, инвалидность), создавать и распространять вредный контент от имени ИИ, включая дипфейки, использовать ИИ, который манипулирует людьми без их согласия.
Какие виды систем ИИ будут
Согласно проекту закона, нейросети будут делиться на помощников, полуавтономные и полностью автономные системы. Последние – под запретом. А если ИИ причинил вред человеку, ответственность несут его владельцы и операторы. Также вводится возможность страхования риска, если система ошиблась.
Проект предусматривает классификацию ИИ по уровням риска:
- высокий – системы, влияющие на жизнь и здоровье людей, госуправление и принятие решений. Они подлежат строгому регулированию;
- средний – требуют контроля, но с меньшими ограничениями;
- низкий – такие системы не нуждаются в регулировании и развиваются свободно.
Также планируется создание Национальной платформы искусственного интеллекта, которая обеспечит базу для разработки и внедрения новых технологий. Возможно, разработчиков обяжут информировать пользователей, если они взаимодействуют с ИИ (например, с чат-ботами или с сервисами, предлагающими некие автоматические решения).
В законопроекте, по словам депутата, предусмотрены статьи:
- по защите конфиденциальности;
- по особенностям создания и предоставления библиотек данных в отношении их владельцев;
- по обеспечению прозрачности данных, на которых учится искусственный интеллект;
- по интеллектуальной собственности.
Контекст
- В 2024 году правительство Казахстана приняло стратегический документ для внедрения технологий искусственного интеллекта (ИИ) в различные сферы экономики. Концепция развития ИИ рассчитана на 2024 – 2029 годы.