Hasta la vista baby немесе ЖИ жасаған дезинформациямен қалай күреспек керек

2024 жылғы 30 мамырда OpenAI өзінің ЖИ құралдарының жасырын әсер ету операциялары қалай қолданылатыны туралы алғашқы есебін жариялады. Кейінгі үш айда компания Ресей, Қытай, Иран және Израильдегі акторлардың әлеуметтік желіде пропаганда жасап, оны тарату үшін OpenAI-дің генеративті ЖИ-ін пайдаланудың бес әрекетін анықтап, бұғаттаған.

Осылайша, Украина, Молдова, Балтық елдері және АҚШ қолданушыларына бағытталған операцияда ресейлік пропагандышылар саяси пікірлер жазатын Telegram бот жасаған. Қытайдан келген акторлар X және Medium үшін үкіметтің халықаралық сахнадағы жұмысын мадақтайтын контент дайындады. Иранда үгітшілер АҚШ пен Израильге қарсы мақалалар шығарды. Израильдік Stoic компаниясы Газадағы қақтығысқа қатысты жалған аккаунттар мен түрлі контент жасады.

Пропаганда, фейк, пранк, алаяқтық және порнография – мұның бәрі қазір нейрон желілері немесе генеративті жасанды интеллект көмегімен белсенді түрде жасалады. ЖИ арқылы жасалған жалған ақпарат барлық мүмкін форматта бар: бейне, сурет, аудио және мәтін. Бұрын-соңды өтірік мұншалықты сенімді және әрі жасалуы оңай болған емес.

Бұл материалда Factcheck.kz редакциясы ЖИ көмегімен жасалған дезинформациямен қалай күресуге болатынын талдап көреді. Біз жалған ақпаратты тануға көмектесетін ең өзекті қызметтерден кибергигиена мен сыни ойлауға дейінгі ең пайдалы ақпаратты жинадық. Оған қоса нейрон желілерін және олар жасайтын контентті реттейтін заңнама саласындағы жинақталған әлемдік тәжірибені қорытындыладық.

Үміт пен шындық

Жасанды интеллект ұзақ уақыт бойы құбыжық ретінде көрсетіліп, ғылыми-фантастикалық әңгімелерде бақылаудан шыққан кезде өркениеттің негізгі антагонисттерінің біріне айналып келді. Бірақ ЖИ әлеуетіне тек әдебиет пен кино ғана алаңдаған жоқ.

Midjourney, ChatGPT және генеративті жасанды интеллектке негізделген басқа жүйелер пайда болғанға дейін сарапшылар ЖИ дамуымен қатар адамзатқа төндіретін қауіпі де артатынын болжаған. Рас, сол кезде көптеген адам үшін бұл ескертулер «Терминатор» стиліндегі машиналардың жақында көтерілуі туралы уәде сияқты болды.

Сондықтан IT алыптары ЖИ-ге белсенді түрде инвестиция құюды, ал ғалымдар бұл саланы дамытуды тоқтатпайды. Генеративті ЖИ революцияға айналып, барлық саланы өзгертетіні қазірдің өзінде анық.

Дегенмен, адамзат кез келген болашағы бар технологияны қаруға айналдыруға шебер, нейрон желісі де назардан тыс қалған жоқ. Бүгінгі күні біз генеративті модельдерді пайдалану, ең болмағанда дезинформация жасау үшін өте нақты қауіп екенін ескертеміз.

Hasta la vista baby немесе ЖИ жасаған дезинформациямен қалай күреспек керек

2024 жылғы Дүниежүзілік экономика форумның сарапшылары ЖИ көмегімен жасалған жалған ақпаратты қысқа мерзімде жаһандық қауымдастық үшін ең ауыр қауіп деп атады. Сарапшылар жасанды интеллекттің жетілдірілген бағдарламалары демократияға нұқсан келтіріп, қоғамды екіге бөлу қаупін төндіретін жалған ақпараттың тарауын арттырып, жаһандық экономика үшін үлкен қауіп екенін айтады.

Hasta la vista baby немесе ЖИ жасаған дезинформациямен қалай күреспек керек
ДЭФ баяндамасының инфографикасы. Сарапшылар жалған мисинформация мен дезинформацияны алдағы екі жылда ең үлкен қауіпке айналады дейді.

2023 жылдың басында OpenAI Стэнфорд интернет обсерваториясымен және Жоржтаун университетінің Қауіпсіздік және дамып келе жатқан технологиялар орталығымен бірлесіп, Gemini немесе Chat-GPT сияқты ірі тіл үлгілерін жалған ақпарат беру мақсатында пайдаланудың ықтимал қауіптері туралы баяндама жасады. Компанияның сарапшылары: «Ірі тіл үлгілері барған сайын кең тарап жатқанын ескереск, […] Ірі тіл үлгілері ешқашан жалған ақпарат жасау үшін пайдаланылмайтынына кепілдік беру іс жүзінде мүмкін емес» – дейді.

Сонымен бірге, есеп авторлары жалған ақпараттың тарау проблемасын шешудің ықтимал шешімін әлеуметтік желінің, ЖИ бағдарламасын әзірлеушілер мен үкіметтердің бірлескен күш-жігерінен көреді. Дегенмен, сарапшылар контентті бақылауға арналған бұл әрекеттердің өзі технология дамуының көшкінімен күресу үшін жеткіліксіз болуы мүмкін екенін ескертеді. 

Оған сенің киімің мен мотоцикылың қажет емес

Hasta la vista baby немесе ЖИ жасаған дезинформациямен қалай күреспек керек
Көптеген жыл бойы бір күні суперкомпьютерлер бақылаудан босап, адамзатқа зиянын тигізе бастайды деп қорқамыз. Бірақ әзірге шалыс басқан тұсымыз жоқ (Иллюстрация: Midjourney).

Генеративті ЖИ тудыратын ақпараттық қауіп туралы айтсақ, біз, әрине, бағдарламалардың өздері туралы емес, олардың пайдаланушыларына назар аударамыз. Алаяқтар, пранк пен пропагандашылар нейрон желілілерінің көмегімен алға қойған мақсатына тез һәм тиімді жету жолын тапты.

Нәтижесінде, ұзақ әрі қиын монтаждың орнына, енді сіз атақты адамдар мен саясаткерлердің бейнесі мен дауысының фейктерін оңай жасай аласыз. Алаяқтар қазірдің өзінде жасалған бейнелерді пайдаланып, өздерінің схемаларын (1, 2, 3) жарнамалап жүр, тіпті бейне қоңыраулар арқылы нақты уақыт режимінде адамдарды ақшаға алдайды.

Бірақ саяси манипуляция үшін қолданылатын дипфейктер одан да қауіпті. Олардың көмегімен кез келген қарсыластың абыройын айрандай төгуге болады.

Бұған соғысқа қарсы ресейлік белсенділерге жасалған пранк, Молдова президенті Майя Сандумен елдегі болатын мобилизация туралы дипфейк немесе Лондон мэрінің екінші дүниежүзілік соғыс құрбандарын еске алу іс-шарасын Палестинаны қолдайтын маршқа байланысты кейінге қалдыру туралы аудио-дипфейкі дәлел. Соңғы фейктің тарауы жаппай тәртіпсіздікпен аяқталды.

Пропагандашылар генеративті нейрон желісін де өз мақсатын пайдаланды. Мысалы, Қытай үкіметіне қарасты белгілі бір жаңалықтар сайты интернеттің қазақстандық сегментінде «Қазақстандағы америкалық биологиялық зертханалар» туралы жалған жаңалықтарды тарату үшін ЖИ қолданды.

Ресейлік пропагандашылар Украинаға жаппай басып кіру басталғаннан бері Украинаның жоғары лауазымды шенеуніктерінің дипфейктерін пайдаланып жүр. Басқаларға қарағанда, мұндай «бейнелерде» Владимир Зеленскийдің бейнесі жиі қолданылады. Мысалы, Украинаның берілуі туралы немесе Авдеевканы тапсыруға шақыратын фейктер.

Hasta la vista baby немесе ЖИ жасаған дезинформациямен қалай күреспек керек
Дүниежүзілік қоғамдастық жалған деректердің демократияға қалай әсер ететініне алаңдайды (Иллюстрация: Midjourney).

Жасалған жалған ақпараттың сайлау процесіне әсері көп алаң тудырады. 2024 жылы сайлау 50 елде, соның ішінде көптеген Еуропа елі мен АҚШ-та өтеді. Біз Пәкістанда, Индонезияда, Үндістанда және Словакияда сайлауда қолданылған нейрон желілерін көрдік.

Осы уақытқа дейін жасалған жалған ақпарат жаһандық сайлау процесіне айтарлықтай зиян тигізген жоқ. Дегенмен, жыл соңына дейін әлі өмір сүру керек, ал дипфейк науқандары алдағы сайлауға қаншалықты әсер ететіні белгісіз.

…бір рет көрген артық

Жасанды интеллект құрастырған жалған ақпарат көлемі кейінгі екі жылда айтарлықтай өссе де, мәселе санда емес. Проблема фейк жасау технологиясы желіге кіретін кез келген адамға қол жетімді болғанында. Оның үстіне, фейтің өзі соншалықты шынайы, олардың жасандылығын арнайы дағдылар мен құралдарсыз анықтау өте қиын болуы мүмкін.

Сонымен қатар, ЖИ фейктерінің вирустай тарауы сондай, тіпті фактчекердің жылдам жұмысымен де жалған ақпараттың тарауын тоқтату мүмкін емес. Оның үстіне, жалған ақпарат хабардың жалған сипаты белгілі болған жағдайда да дүниетанымға және БАҚ-қа деген сенім деңгейіне әсер етеді әрі фейкті жасаушылар мұны жақсы біледі.

Өкінішке қарай, адамдарды адастырған фейктерді теріске шығарғаннан кейін де жалған ақпаратты «ұстап қалуға» тырысатын қабілетіміз ЖИ жалған ақпарат таратушылардың жұмысын жеңілдететін психикамыздың жалғыз ерекшелігі емес.

Hasta la vista baby немесе ЖИ жасаған дезинформациямен қалай күреспек керек
Жалған ақпарат терістелгеннен кейін де адамдарға әсер етеді (Иллюстрация: Midjourney).

Цюрих университетінің ғалымдары эксперимент барысында адамдардың шын адам жазғанға қарағанда, ЖИ жасаған жалған хабарламаларға көбірек сенетінін анықтады. Бәлкім, құрастырылған мәтіндер құрылымның айқындығы мен қысқалығының арқасында сенімдірек болып көрінеді. ЖИ бар болғаны 3%-ке басым екені белгілі болған, бірақ экспериментте ChatGPT-3 пайдаланған зерттеушілер ірі тілдік модельдердің жетілдірілген нұсқалары пайдаланылса, пайыздық көрсеткіш артады деп болжайды.

Дипфейктерді қабылдаудың тағы бір ерекшелігі – Данниң-Крүгер эффектісіне ұқсас – Макс Планк институты мен Амстердам университетінің ғалымдары ашты. Тәжірибелердің нәтижесінде бәрінен бейхабар көрермен шынайы бейнелерді дипфейктен ажырата алмайтыны белгілі болды, бірақ сонымен бірге олар фейктерді тану қабілетін айтарлықтай жоғары деп бағалайды. Көбінесе субъектілер жалған бейнелерді шынайы бейнелер деп қателескенін керісінше күрделі фактор деп санауға болады.

Ақпараттық сауат пен пребанкиң қызметі когнитивті бейімділіктерді бейтараптандырудың және жалған ақпаратқа қарсы тұрудың тиімді құралы саналады.

«Медиасауат науқандары дипфейктің келтіретін зиянын азайту үшін өте маңызды. Аудиторияны фактчекерлер сияқты ойлауға үйрету жалпы жұртшылықтың жалған ақпарат тарату жылдамдығын айтарлықтай төмендетіп, оның артында тұрғандардың бетін қайтарады», – дейді IFCN халықаралық фактчекиң желісінің қауымдастық менеджері Инок Нярики.

ЖИ-ге қарсы бағдарлама мен олардың қолжетімділігі

Бейнелердегі, суреттердегі немесе мәтіндердегі ЖИ ізін анықтауға арналған бағдарламалар маңызды құрал, бірақ қарапайым пайдаланушы үшін олар сыни ойлау мен мұқият болу сияқты пайдалы немесе тиімді емес.

Бүгін ЖИ идентификаторлары негізінен бизнес, журналистер мен фактчекерлер үшін кәсіби құрал болып қала береді. Көптеген бағдарламалар толығымен немесе кеңейтілген функционалдығы бар, тек корпоративтік жазылым арқылы немесе ақылы түрде қол жетімді. Бұл жағдайдың бірнеше себебі бар.

Жасалған мазмұнды анықтауға арналған жоғары сапалы көп функционалды құралдарды әзірлеу ресурстарды қажет етеді, сондықтан ЖИ идентификаторларын әзірлейтін компаниялардың өз өнімдерін монетизациялауға мүдделі болуы табиғи нәрсе. Әсіресе инвесторлар (1, 2) ЖИ ізін анықтайтын технологияға қарағанда, генеративті ЖИ-дің өзін дамытуға көңіл бөлетінін ескеру керек.

Жалпыға қолжетімді ЖИ құралдарының аз болуының келесі ықтимал себебі – жалпыға қолжетімді құралға қол жеткізгеннен кейін, құралды «алдай» алатын бағдарламаны өте жылдам жасауға болады. Сондықтан әзірлеушілер өз өнімдерінің қолжетімділігі мен тиімділігі арасында ымыраға келуге мәжбүр.

Жалпы жұртшылықтың арнайы бағдарламаларға қолжетімділігін шектейтін тағы бір маңызды фактор бағдарламаны дұрыс пайдалану және нәтижелерді түсіндіру үшін белгілі бір дағдылар мен білім қажет.

IFCN директоры және PolitiFact-тің бұрынғы редакторы Энжи Холанның айтуынша, ақпаратты мұқият тексеру көпшілік арасында зейінді қажет етеді. Кейбір жағдайда жалған ақпаратты тексеру үшін маман емес адамдарда жоқ арнайы ақпаратты іздеу дағдылары қажет. Бұған қоса, жаңалықтың орташа тұтынушысы ЖИ ізін анықтау ақылы бағдарламаны пайдалануға ынталандыру үшін жеткілікті мотивация болуы керек.

Кез келген адам Deepware немесе AI or Not сияқты бағдарламаларды пайдалана алады, бірақ нәтижелердің нені білдіретінін түсіну – әсіресе олар әр бағдарламада әртүрлі болса – оңай шаруа емес.

Кейбір ЖИ анықтау құралы үкімді пайыздық ықтималдық ретінде хабарлайды, ал басқалары нәтижені бірнеше санаттардың бірінде көрсетеді, мысалы, «ЖИ жасаған» немесе «адам жасаған болуы мүмкін». Кейбір бағдарламалар қосымша дайындықсыз дұрыс түсіндіру қиын болуы мүмкін графиктер мен «жылу карталары» сияқты кеңейтілген визуализацияларды да пайдаланады.

Hasta la vista baby немесе ЖИ жасаған дезинформациямен қалай күреспек керек
Дереккөз: AI or Not

Құралдардың тиімділігіне келсек, оны әлі жетілдіру керек. Әсіресе, техникалық құралдар үшін жасалған мәтін мен дыбысты дұрыс анықтау қиын. Атап айтқанда, мәтіндегі абзацтарды ауыстырсаңыз немесе бірнеше рет жүктелген және қайта салынған аудио файлды тексеруге жіберсеңіз, ЖИ детекторлары мүлдем басқа нәтиже көрсетеді. Сондықтан, дипфейкті сенімді түрде анықтау үшін сіз тек ЖИ сәйкестендірудің арнайы бағдарламаларына ғана емес, сонымен қатар басқа құралдарға, сондай-ақ мұқияттылыққа, сыни ойлауға және әртүрлі модальдіктегі ЖИ маркерлерін білуге ​​сүйенуіңіз керек.

Егер сізге әлі де техникалық анализаторлардың көмегіне жүгіну қажет болса, біз өз тәжірибемізде қолданған келесі детекторларды ұсына аламыз.

Біз бұл бағдарламаларды олардың қол жетімділігіне, пайдаланудың қарапайымдылығына және салыстырмалы тиімділігіне байланысты таңдадық. Бірақ, өкінішке орай, бұл анализаторлардың ешқайсысы мінсіз емес және олардың үкіміне ғана сенбей, басқа құралдар мен әдістерді қолданып, суреттерді, аудио немесе бейнелерді талдаған дұрыс.

  1. AI or Not – бейне мен дыбысты талдайды. Біздің тәжірибемізде ол суретті жақсы анықтайды, бірақ дыбыстық фейктермен соншалықты сенімді жұмыс істемейді. Тіркелгеннен кейін 10 сурет пен аудионы тегін тексеруге болады, содан кейін тариф айына 5 доллардан басталады.
  2. Undetectable AI – мәтіндегі ЖИ ізі бар-жоғын тексереді. Мәтін жасалуы мүмкін бағдарламаларды көрсетеді. Тіркелмей-ақ қолдануға болады. Өкінішке орай, ол жалған нәтиже беруге бейім.
  3. DeepFake-o-Meter – суретті, дыбысты және бейнені талдайды. Әртүрлі әзірлеушілердің қол жетімді опцияларының тізімінен детекторды таңдауға мүмкіндік береді. Сканерленген файлдарды серверде сақтамау опциясы бар, ол құпия ақпаратпен жұмыс істегенде маңызды болуы мүмкін. Құрал тегін және қарапайым тіркеуден кейін қол жетімді. Өкінішке орай, барлық детектор жасалған контентті сәтті анықтай бермейді, дегенмен кейбір жағдайларда бағдарлама бәсекелестерінен жақсырақ екенін көрсетті.
  4. Deepware — бейнедегі дипфейкті анықтайды. Сіз файлдарды жүктеп салуыңызға болады немесе YouTube, Facebook немесе X сілтемесін қоя аласыз. Ол агрегатор ретінде жұмыс істейді – әртүрлі детектордың нәтижесін ЖИ ізінің пайызын көрсетеді. Ол әрқашан сенімді орташа нәтиже бермейді, бірақ ол вирустық фейкпен жақсы күреседі.
  5. AI Speech Classifier от ElevenLabs – ElevenLabs нейрон желісі арқылы жасалған дыбысты анықтайды. Тіркеусіз және шектеусіз пайдалануға болады. Біздің тәжірибемізде анализатор жақсы жұмыс істейді, бірақ бағдарлама АҚШ президентінің жалған дауыстық жазбасында ЖИ ізін танымағанына қарағанда, детектордың тиімділігі соншалықты тұрақты болмауы мүмкін.

Жеті рет өлшеп, бір рет кес

Генеративті ЖИ-тің технологиялық жетілдірілуі бір кездері жасалған контентті нақты нәрседен ажырату мүмкін болмайтындығына қауіп төндірсе де, бүгінгі күні фейктерді таратушылар сапасы жақсы фейк жасауға бас қатырмайды.

Көптеген вирустық дипфейк бейнеде және суретте жалғанды ​​жалаң көзбен анықтауға болады. Мұндай фейктердің қатарында Франция президенті Эмануэль Макронның Париждегі тәртіпсіздіктер кезінде түсірілген «фотосуреттері», жақында Дональд Трамптың қара нәсілді жақтастарының қоршауында түсірілген фейк және Украина Ұлттық қауіпсіздік және қорғаныс кеңесінің хатшысы Алексей Даниловтың Украинаның Мәскеудегі Крокус Сити Холлдағы терактіге қатысы барын растайтын жалған бейне «сұхбаты» бар.

Бұл хабарламалардың тарау себебі – фейктің жақсы сапасы емес, көрермендердің назар аудармауы, өз көзқарасын растауға ұмтылу және оның растығын тексермей, сенсациялық жаңалықты жария ету үрдісі. Фейктерді жасаушылар біздің қабылдауымыздағы бұл олқылықты біледі және фейктердің тез тарауына сенімді, ал фейктердің сапасы нашарлығы бұған кедергі емес.

Бұл жерде ақпараттық сауаттың маңызы қайтадан пайда болады. Бұл мақалада біз ЖИ-дің жалғандығын анықтау әдістері туралы егжей-тегжейлі жазбаймыз, бұған қатысты материал аз емес (мысалы: жасалған дыбысты, суретті немесе дипфейкті қалай тануға болады). Дегенмен, ЖИ жасаған жалған ақпаратпен күресу үшін бірнеше қарапайым ережені сақтау жеткілікті екенін ескертеміз:

  1. Суреттің егжей-тегжейіне назар аудара отырып, тарататын материалды мұқият зерттеңіз. Жаңалықты үстірт қарасаңыз, суреттегі қосымша қол немесе бейнедегі адамның жасанды мимикасы сияқты ЖИ-дің айқын маркерлерін өткізіп алуға болады.
Hasta la vista baby немесе ЖИ жасаған дезинформациямен қалай күреспек керек
Бір қарағанда оң жақтағы адамның үш қолы бар екенін байқамай қалуыңыз мүмкін (Дерккөз: X)
  1. Хабарлама дереккөзі сенімді екеніне көз жеткізіңіз.
  2. Жалқауланбаңыз, ақпаратты екі рет тексеру үшін латералды оқу әдісін қолданыңыз – мүмкін фактчекерлер оны терістеп қойған да шығар.

Жасанды интеллектті бақылау шаралары

Нейрон желілерін қолдану арқылы жасалған дезинформация жаһандық қауымдастық үшін жаңалық. Сондықтан, генеративті ЖИ-ді ел ішінде де, халықаралық деңгейде де пайдаланудың құқықтық негіздері әлі де құрылып жатыр және олардың тиімділігі уақыт өте келе белгілі болады.

Өкінішке қарай, қолданыстағы заңнама қазіргі уақытта фейктердің тарауына кедергі келтірмейді, керісінше әрекет етеді. Сонымен қатар, экономика және IT салаларының сарапшылары (1, 2) ЖИ-ді бақылау бойынша кез келген шаралардың тиімділігі әрқашан технологияның дамуынан артта қалады деп болжайды.

Дегенмен, Google сарапшыларының пікірінше: «ЖИ реттеу үшін тым маңызды [технология] және жақсы реттелуі де тым маңызды».

Hasta la vista baby немесе ЖИ жасаған дезинформациямен қалай күреспек керек
Тарихи ауқымда генеративті ЖИ жақында пайда болды, сондықтан нейрон желілерін пайдалануды бақылаудың заңнамалық шаралары қаншалықты тиімді болатынын уақыт көрсетеді (Иллюстрация: Midjourney).

IT маманы және «Интернетті қорғау қоғамының» директоры Михаил Климарев нейрон желілері тудыратын дезинформацияның тарауын шектеу, сондай-ақ фейк жасаушыларды жауапкершілікке тарту техникалық тұрғыдан мүмкін емес деп санайды – олар көбінесе дезинформация таратқан елден тыс жерде тұрады. Дегенмен, компаниялардан платформаларында немесе бақылауындағы технологиялар арқылы таратылатын ақпараттың сапасын бақылауды заңды түрде талап етуге болады.

Әлеуметтік медиа нарығындағы X, YouTube, Facebook және TikTok сияқты алыптар жасалған немесе өзгертілген контентті бақылау үшін бірқатар шара енгізді. Ақпан айында Google, OpenAI, TikTok, Meta және Microsoft компаниялары «жасанды интеллект арқылы жасалған сайлау туралы жалған ақпаратқа» қарсы тұру шараларын бірлесіп әзірлеу туралы келісім жобасын ұсынды. Көктемнің басында Meta және YouTube жасалған контентті таңбалаудың кеңейтілген ережелерін жариялады, ал Google пайдаланушыларға Gemini чатында сайлау туралы сұрақтар қоюға тыйым салды.

Ұлттық заң мен саясат

Жасанды интеллект жұмысына жанама түрде қатысты алғашқы заңнамалық актілердің бірі Оңтүстік Кореяда 2008 жылы, генеративті модельдердің жоғары профильді пайда болуынан ерте пайда болды. Құжат «ақылды роботтардың» дамуы мен тарауын реттеуге бағытталған. Әртүрлі салада қолданылатын ЖИ технологияларын бақылауға арналған нұсқаулар мен ережелер басқа елдерде біртіндеп пайда болды (1, 2).

Жасанды интеллектті дамытудың ұлттық стратегиясын алғаш жариялаған ел Канада болды. Құжатта қол жеткізу және жүзеге асыру бағдарламалары бойынша төрт мақсат бар. Бұдан шығатыны, канадалықтардың басты басымдығы – зерттеу мен талантты қолдау.

Канадамен қатарласа Қытай өзінің «Жасанды интеллекттің жаңа буынын дамыту жоспарын» қабылдады. Бұл әлі де ең ауқымды және жан-жақты ЖИ жобасы.

Бұл ретте қытайлық жоспардың авторлары жасанды интеллекттің дамуы қауіпсіздікке қатер төндіруі мүмкін екеніне назар аударады және мұны ескеру қажет. 2018 жылы Қытайда «ЖИ стандарттау туралы ақ кітап» пайда болды (кітаптың 2021 жылғы басылымындағы толық мәтіні осында). Құжатта іске асыру және басқару бастамаларынан басқа, сенімділік пен қауіпсіздік мәселелері де қарастырылған. Осылайша, ЖИ саласында, бір жағынан, кеңейту мен дамыту бойынша, ал екінші жағынан, бағалау және реттеу бойынша жобалар жүзеге асырылып жатыр.

2020 жылы HolonIQ халықаралық агенттігі жасанды интеллект саласындағы 50 ұлттық стратегияны жариялады. Сол жылы OECD ai Policy Observatory — экономикалық ынтымақтастық және даму ұйымының (ЭЫДҰ) жасанды интеллект саясаты обсерваториясы ресми түрде іске қосылды. Осы уақытқа дейін OECD AI әлемнің 69 елінде ЖИ туралы 1 000-нан астам саяси бастама туралы мәлімет берді. Олардың 354-і ЖИ саласындағы басшылық пен реттеуге бағытталған, алайда негізгі бөлігі жалпы ұсыныс сипатында екенін атап өткен жөн. 

Еуроодақ, AI act үлгі болар заң ретінде 

Шамасы, Еуроодақ ЖИ жұмысын құқықтық реттеу саласындағы ұсынылмайтын типтің ең жоғары нәтижесіне қол жеткізді.

2019 жылы Еуропалық комиссия «Адамға бағытталған жасанды интеллектке сенімді нығайту» досьесін жариялады. Ол сенімді ЖИ жасауға арналған нұсқауларды тізімдейді. ЖИ қолданбалары жауап беруі керек негізгі талаптар:

  1. адам әрекеті және бақылау;
  2. техникалық сенім мен қауіпсіздік;
  3. құпиялық және деректерді басқару;
  4. ашықтық;
  5. әртүрлілік, алаламау және теңдік;
  6. әлеуметтік және экологиялық салауат;
  7. жауапкершілік.

2023 жылғы желтоқсанда ЕО елдері мен Еуропарламент жасанды интеллект туралы заң бойынша келісімге келді. 2024 жылғы наурызда Еуропалық парламент AI act деп аталатын Заңды қабылдады. Қазірдің өзінде ол әйгілі әрі технологияға негізделген жаңа басқару моделінің бастапқы нүктесі болады деп санайды.

Жоба ЖИ қосымшаларын олар тудыратын қауіп деңгейіне қарай төрт санатқа бөле отырып, жіктеуге және реттеуге бағытталған. Регламентке сәйкес, кейбір жүйелерге толық тыйым салынады (мысалы, нақты уақыт режимінде адамдарды бақылайтындардың кейбірі). Басқалары маңызды бағалауға ұшырайды, ал басқалары қадағалауға жатпайды.

Сондай-ақ құжатта жасанды немесе қолдан жасалған кескіндер, аудио немесе бейне контент («deepfakes») дәл осылай белгіленуі керек екендігі айтылған.

АҚШ

Құқықтық саладағы тағы бір маңызды оқиға – 2023 жылы АҚШ-та қол қойылған жасанды интеллектті дамыту және пайдалану туралы Жарлық. Ақ үйдің уеб-сайтында бұл жоба «ЖИ қауіпсіздігі мен қорғанысының жаңа стандарттарын белгілейді, америкалықтардың жеке өмірін қорғайды, әділдік пен азаматтық құқықтарды дамытады, тұтынушылар мен жұмысшыларды қорғайды, инновациялар мен бәсекелестікке жәрдемдеседі, бүкіл әлем бойынша америкалық көшбасшылықты алға жылжытады және т.б.» делінген.

Осылайша, жаңа талаптарға сәйкес, АҚШ-тың ұлттық қауіпсіздігіне, экономикасына, қоғам денсаулығына немесе қауіпсіздігіне қауіп төндіретін ЖИ жүйелерін әзірлеушілер үкіметке қауіпсіздік сынақтарының нәтижелерін ұсынуы керек. Ішкі қауіпсіздік департаментіне жасанды интеллект/киберқауіпсіздік, сондай-ақ химиялық, биологиялық, радиологиялық және ядролық қатерге қатысты қауіп-қатерлерді жою үшін ЖИ Қауіпсіздік Кеңесін құру және Энергетика министрлігімен жұмыс істеу тапсырылды. Америкалықтарды ЖИ негізіндегі алаяқтықтан қорғау үшін Сауда министрлігі ЖИ жасаған контентті нақты белгілеу үшін мазмұнның аутентификациясы және су таңбалауы бойынша нұсқаулық әзірлейді.

Сонымен қатар, 2024 жылғы ақпан айының басында АҚШ үкіметі ЖИ арқылы жасалған дауыстарды пайдаланатын робот қоңырауларына тыйым салды. Шектеу Нью-Хемпшир штатында болған оқиға аясында қабылданды, онда жергілікті тұрғындарға президент Джо Байденнен қоңыраулар көптеп келе бастаған. Президенттің дауысы оның жақтастарын президенттік сайлауда дауыс бермеуге үгіттеген.

Ал Қазақстанда ше?

Қазақстанда ЖИ жасау мен жұмысын бақылауға бағытталған арнайы заңдар әлі жоқ. OECD AI белгілеген барлық ұлттық бастамалар тек жасанды интеллектке қатысты жобаларды дамытуға жәрдемдесуге бағытталған.

Hasta la vista baby немесе ЖИ жасаған дезинформациямен қалай күреспек керек
Қазақстандағы цифрландырудың даму қарқынын ескере отырып, генеративті ЖИ негізіндегі бағдарламаларды бақылау шаралары кезек күттірмейді (Иллюстрация: Midjourney). 

ЖИ мен робототехниканы құқықтық реттеу қажеттілігі Қазақстан Республикасының 2030 жылға дейінгі құқықтық саясат тұжырымдамасында көрсетілген. Заң шығарушылар негізгі мәселе ретінде ЖИ мен роботтардың әрекетінен болған зиян үшін жауапкершілікті бөлу, сондай-ақ олардың қатысуымен жасалған туындыларға зияткерлік меншік құқығын анықтау деп санайды.

Қорытынды

Нейрон желілері арқылы жасалған жалған ақпаратпен күресудің әмбебап құралы жоқ. Тиімді қарсы әрекет әлеуметтік желілердің, ЖИ әзірлеушілерінің, журналистер мен үкіметтің бірлескен күш-жігерін, сондай-ақ қалың бұқараның медиа сауатын арттыруды талап етеді.

Соңғысы вакцинация мен ұжымдық иммунитетті дамыту арқылы иммунизацияға ұқсас. Тек хабардар болуды арттыру және сыни ойлауға үйрету арқылы ғана ЖИ фейктерінің тарауы мен әсерін азайтуға болады, осылайша ақпараттық кеңістік пен демократияны қорғай аламыз.

Материал «Медиажелінің» қолдуымен жарық көрді

Factcheck.kz