AI мен дезинформация | Мүмкіндік пен мәселе

«Терминатор» фильмінің авторы, белгілі кинорежиссер Джеймс Кэмерон бір сұхбатында машиналар адамзатқа қарсы көтерілсе, олар қару ретінде ядролық бомбаны емес, дипфейкті таңдайды деген. Кейін қатарында Илон Маск пен Стив Возняк бар мыңнан аса бизнесмен мен зерттеуші жасанды интеллектіні оқытуды 6 айға доғара тұруға шақырды. Олардың хатында “Қуатты ЖИ жүйелері олардың жалпы әсері оң және тәуекелдер басқарылатынына сенімді болған кезде ғана жасалуы керек” деп жазылған. Ал біз мәселені басқа қырынан талдап көрейік: “Жасанды интеллекттің дезинформациядағы рөлі қандай? ЖИ көмегімен фактчек жасауға бола ма?”.

Материалды бастамас бұрын негізгі анықтамаларды атап өтейік:

  • Жасанды интеллект (ЖИ) – адамның интеллектісі мен мінез-құлқына имитация жасап, жүйелер мен машиналарды жасайтын, оларды дамытумен айналысатын компьютер ғылымының саласы. ЖИ сөйлеу мен кескінді тану, деректерді талдау, оқу, мәселелерді шешу және шығармашылық сияқты әртүрлі тапсырмаларды орындай алады. ЖИ сонымен қатар машиналық оқыту, терең оқыту, нейрондық желілер, логика, символдық модельдеу және робототехника сияқты көптеген бөлімдер мен әдістерді қамтиды.
  • ChatGPT – GPT (Generative Pre-Trained Transformer) архитектурасына негізделген жасанды интеллект үлгісі. Ол сұрақтарға жауап беру және басталған диалогты табиғи түрде жалғастыру арқылы мәтін жазуға үйретілген. ChatGPT-ды OpenAI әзірлеген және қазіргі табиғи сөйлесу саласындағы ең озық жасанды интеллект үлгілерінің бірі.
  • Bing AI – іздеу, жауап беру, сөйлесу және контент құруды жақсарту үшін жасанды интеллект пайдаланатын Bing іздеу жүйесінің жаңа нұсқасы. Bing AI пайдаланушыларға күрделі сұрақтар қоюға және Bing чатботынан толық, интерактив жауаптар алуға мүмкіндік береді.

ЖИ мүмкіндіктері мен шектеулері

2021 жылы жарияланған зерттеу авторларының сөзіне сай, жасанды интеллект дезинформацияның тарауына айтарлықтай көмектесуі мүмкін. Олардың сөзінше, біріншіден, жасанды интеллект әдістері мәтіндер мен кескіндерді, аудио не бейне контентті жасау мен өңдеудің жаңа мүмкіндіктерін ашады. Екіншіден, пайдаланушыларды тарту үшін онлайн-платформалар әзірлеген және қолданатын жасанды интеллект жүйелері интернетте жалған ақпараттың жылдам тарауына ықпал етеді. Бұдан көптеген этикалық мәселелер туындайды. Авторлардың сөзінше, AI жүйелері дезинформация мен мисинформация арасындағы айырмашылықты ажырата алмауы көп мәселе тудыруы мүмкін. Бұдан бөлек, жасанды интеллект дезинформациямен күресуге де тиімді бола алады, алайда бұл үшін бірнеше мәселені шешуіміз керек: ЖИ бүгінде тым көп көлемді ақпаратпен жұмыс істей алмайды, адамдар секілді фактілердің қатесін тексере алмайды. Одан бөлек, ЖИ адамды адастыратын мәтін стилін анықтай алады деген күннің өзінде, барлық дезинформация мұндай стилде жазыла бермейді.

Ал Brookings сарапшысының сөзінше, дезинформацияға лезде реакция білдіру екі есе мәселені шешуге итермелейді. Оның бірі көп ақпаратқа қолжетімділікке байланысты болса, екіншісі сенімсіз не қасақана бұрмаланған ақпараттарға байланысты. Яғни, кез келген оқыту алгоритмі үшін кедергілердің бірі — оқу деректерінің үлкен жинағына қол жеткізу. Дезинформацияны анықтауға арналған AI жүйелерінде пайдалы болуы үшін, көптеген жағдайларда деректер ең басынан бастап қолмен кодталуы керек. Бұл әдіс қандай да бір жалған ақпаратпен ұзақ күресетінде тиімдірек, алайда лезде әрекет етуге мүмкіндік бермейді.

Уақыттан айтарлықтай тәуелсіз, бірақ проблематикалық келесі әдіс — ЖИ үйрену кезінде сүйенетін интернеттегі ақпараттардың белгіленуінің дұрыстығы. Қарапайым мысал ретінде автокөліктердің кескіндерін велосипедтердің кескіндерінен автоматты түрде ажыратуды үйренуге тырысатын машиналық оқыту алгоритмін қарастырайық. Ол үшін алгоритм интернетті шолып, «автокөлік» белгісі бар миллиондаған суретті және «велосипед» деп белгіленген миллиондаған басқа суретті табады. Көп жағдайда бұл белгілер дұрыс. Бірақ кейбір жағдайда олар дұрыс емес болып шығады. «Автокөлік» деп белгіленген сурет жүк көлігін, велосипедті немесе көліктерге мүлдем қатысы жоқ контентті көрсетуі мүмкін. Қате белгілердің үлесі неғұрлым көп болса, алгоритмнің машиналар мен велосипедтерді дәл ажыратуды үйренуі соғұрлым қиын және баяу болады.

ЖИ фактчекерге көмекші ме?

Қазір қолымызда бар жасанды интеллекттердің қаншалықты фактчек жасауға жарамды екенін білу үшін қарапайым сұрақтарды қойып көрейік (мысалы, Factcheck.kz бұған дейін терістеген қастандық теорияларына қатысты сұрақтар). Алғашқы сұрағымыз Ресейдің ТМД аумағында биоқару өндіретін биозертханалар бар екені туралы дезинформациясына қатысты болды (материалдарымызды толығырақ келесі материалдардан оқи аласыз — 1, 2, 3). Біз мұның қаншалықты рас екенін сұрадық. Bing AI Washingtonpost.com, Theguardian.com мен News.yahoo.com сайттарына сілтеп, мұның жалған екенін және Ресей дезинформациясы ретінде жоққа шығарылғанын жазды. ChatGPT-де АҚШ ТМД аумағында биоқару өндіретін зертханалар тұрғызып жатқанына еш дәлел жоқ екенін, ал бар зертханалар инфекциялар мен қоғамдық денсаулық сақтау саласына қатысты зерттеулер жүргізетінін айтты.

  • AI мен дезинформация | Мүмкіндік пен мәселе
  • AI мен дезинформация | Мүмкіндік пен мәселе

Чат-боттар “Pfizer вакцинасы бедеулікке алып келе ме?” деген секілді қарабайыр сұрақтарға да мұның жалған екенін жазды (бұл жолы сұрақ біздің медиа-кеңістікке сәйкестендіріліп орыс тілінде қойылды).

  • AI мен дезинформация | Мүмкіндік пен мәселе
  • AI мен дезинформация | Мүмкіндік пен мәселе

Алайда Bing AI жоғарыдағыдай жалпылама сұрақтарға дұрыс жауап бергенімен, “жергілікті” сұрақтарға ылғи дұрыс жауап бере бермейді. Мысалы, біз 20 сәуірде жариялаған “Ресейде теңгені «достық пейілі жоқ елдер валютасына» қосты ма?” деген материалымызда теріске шығарған ақпаратымыздың қаншалықты рас екенін сұрадық. Bing қазақстандық және ресейлік ақпараттық сайтқа сілтеп “мұның рас екенін” жазды. Ал ChatGPT-дің ақпараттық базасы 2021 жылмен шектелсе де, мұның жалған екенін айтты.

  • AI мен дезинформация | Мүмкіндік пен мәселе
  • AI мен дезинформация | Мүмкіндік пен мәселе

Абайлаңыз, галлюцинация!

Оның үстіне адамдар чат-боттарды қолдану кезінде жасанды интеллектінің “галлюцинациясына” ұшырауы мүмкін. “Біз айтқан жасанды интеллектінің түрі кейде біз “галлюциянация” деп атайтын затқа әкелуі мүмкін”,-деген Google-дің жоғарғы вице-президенті, Google Search басшысы Прабхакар Рагхаван.

Чат-боттардағы галлюцинация – чат-бот шындыққа сәйкес келмейтін я қисынсыз, бірақ нанымды және рас көрінетін нұсқада жауап беретін құбылыс. Бұл әртүрлі себептерге байланысты болуы мүмкін. Мысалы, нейрондық желіні оқытудағы қателер, сұрақтың анық еместігі не күрделілігі және т.б.

Қорытынды

Қалай дегенде де, жасанды интеллект фактчекерге жақсы көмекші бола алады. Мысалы, жасанды интеллект технологиялары 25 ақпанда Нигерияда өткен сайлау қарсаңындағы фактчекерлер жұмысын тиімді атқаруға көмектескен. Оларға Full Fact ұйымы фактчекиңді автоматтандыру үшін жұмыс істейтін 3 құралдан тұратын жасанды интеллектінің қызметін ұсынған. ЖИ құралы фактчекерлерге мониториң жасауда уақыт үнемдеуге жәрдемдескен. “Бұл құралдар фактчекерлерді және олардың атқаратын маңызды жұмысын алмастыруға арналмаған”, – деді Full Fact компаниясының өнім бойынша менеджері Кэйт Уилкинсон. Сондықтан ЖИ-ді фактчекерлер де, басқалар да күнделікті өмірде қолданып, алайда оларды да тексеріп отыруды ұмытпау қажет.

*Басты беттегі сурет Bing AI көмегімен салынды

Фактчекер-журналист. Factcheck.kz сайтының шығарушы редакторы.

Factcheck.kz