Ақпараттық соғыста дипфейк несімен қауіпті?

Жалған жаңалықтар мен фэйк хабарламалар бізге 21 ғасырдың басты мәселесіндей көрінетін. Алайда бұлардың қатарына енді дипфейктер (deepfake) қосылды. Жасанды интеллект адамның қозғалысын айнытпай салып, адам жазып, үйреткен нәрселерді күмән келтірместей етіп айтып шығады.

«Дипфейк — жалған видео ғана емес, компьютерлік алгоритмдердің ауқымды суреттер базасы арқылы әзірлейтін видеоролигі.  Алгоритм сол контентті кәдесіне жаратуды үйреніп алады” дейді Associated Press басылымының дипфейк туралы сюжетінде пікір айтқан Ұлттық қауіпсіздік бойынша сарапшы Эндрю Гротто.

Эндрю Гроттоның айтуынша, алдағы бір-екі жылда адам шынайы видеоны жалғанынан ажырата алмай қалады.

Басталуы: Обамафейк

Биыл BuzzFeed режиссер Джордан Пилмен бірігіп желіге Барак Обаманың Дональд Трампқа “айтқан сөзін” жариялады. Видеода Барак Обама АҚШ-тың қазіргі президенті Дональд Трампты “есалаң” деп балағаттайды. Шын мәнінде Обама бұлай деген жоқ. Видео FakeApp және Adobe After Effects бағдарламалары арқылы жасалған. BuzzFeed дикфейктің бұл түрі аудиторияға қалай әсер ететінін зерттеу үшін осындай тәжірибе жүргізген.

Продюсердің сөзінше, клипті автоматты түрде үйреніп кетуге қабілетті видео өңдеуге арналған бағдарламаларды біріктіріп жасаған.

Дипфейктер адам сөзін я қимылын емес, мимикасы мен эмоциясын да айнытпай қайталайды. Карнеги-Меллон университетінің эксперименті дипфейктердің және бір қырын ашты – өзгертуге болатын адамның түрін ғана емес.

Эксперимент кезінде университеттің төрт қызметкері — Ааюш Бэнсал, Шугао Ма, Дева Раманан және Язер Шейх дипфейк жасау конструкциясын жақсартқан. Зерттеушілер өз жасағандарын Recycle-GAN деп атаған. Жоба презентациясы кезінде зерттеушілер өздері жасаған Recycle-GAN-ның адам бетін ғана көшіруге мүмкіндік беретін алдыңғы бағдарламадан – Cycle-GAN артықшылығын айтты.

Олар – дипфейктерді сынап көргенде АҚШ президенттерінің суретін пайдаланған BuzzFeed-тен кейінгі екінші зерттеушілер. Неге оларды ала береді десеңіз, біріншіден, екеуі бір-біріне мүлдем ұқсамайды. Екіншіден, интернетте олардың суреті көп. Карнеги-Меллон университетінің зерттеушілері Дональд Трамп пен Барак Обама бір-бірінің бет қимылын қайталап жатқан видеосын жасап шыққан. Екінші бір видеода Барак Обаманың қимылы өткен ғасырда ақ-қара видеоға түсіріп алынған Мартин Лютер Кингтің қимылынан аумайды.

Бұл технологияны дипфейктерге ғана емес, гүлдер я бұлттар бар видеоларды өңдеуге де болады.

Дипфейк видео жасап шығу үшін автоматты түрде үйрене алатын бағдарламалар ғана қажет дедік қой. Мұндай конструкциялар тек екі нейрожеліден тұрады. Бірінші нейрожелі образ жасап шығады да, екіншісі — нәтижені алып, арнаулы орнатылған критерийлер арқылы өңдеп шығады. используя для этого заданные критерии. Осы арқылы біз екі терминатордың төбелесін я Аватардың қалай шайқасатынын көре аламыз.

Порнографияның жаңа мүмкіндіктері

Нейрожелілерді зерттеумен айналысатын бес университеттің зерттеушілер “Deep Video Portraits” деп аталатын зерттеу жүргізген. Эксперимент қорытындысы жазылған есепте олар сөз сөйлеу жүйесінің, мимиканың қалай жетілгенін сипаттайды. TechCrunch басылымы дипфейктердің жаңа толқыны басталады деп болжаған. Солай-ақ болды: хакерлер актерлердің орнына жұлдыздардың түрі қойылған фейк порновидеолар жасай бастады.

“Біз жасаған видеоның шынайы видеодан айырмасы аса байқалмайды”, – дейді сарапшылар. Өкінішке қарай, расымен солай. Алайда жасанды интеллект дауысты “көшіріп”, айтылуы керек мәтінге бейімдей алмайды. Алайда актерлар барда бұл қиын мәселе емес.

“Мұның этикалық салдары не боларын білмеймін. Нәтижені жариялау себебіміздің бір себебі де – осы. Адамдар манипуляция технологияларының неге қабілетті екенін білгені дұрыс», — дейді зерттеу авторларының бірі Юстус Тайс.

Пентагон және дипфейктермен күрес

Дипфейктер белгілі бір адамдардың өміріне қауіп төндіріп, тіпті саяси дағдарысқа ұшыратуы мүмкін. WhatsApp-тағы бір ғана хабарламалардың неге әкеп соққаны есіңізде шығар.

Фейктер жасанды интеллектінің көмегімен жасалғандықтан, олармен күрескенде де нейрожелілерді пайдалану керек. Пентагон тап осылай еткен — АҚШ қорғаныс министрлігінің перспективті және зерттеу жобалар басқармасы (DARPA) жалған видеоларды анықтайтын алгоритм жасап шықты.

Эксперттер дипфейк видеоларда жиі кездесетін кемшіліктер анықтаған:

  • “Адамдар” мұндай видеода көзін аз жұмады.
  • Көзін жасанды жұмады я көзін екі жаққа қаратады.
  • Көзін мүлдем жұмбайды.

Бұған қоса бас қимылының басқаша екенін байқауға болады. Адамға тән физиологиялық белгілерде жасандылық байқалап тұрады.

DARPA қызметкерлері осы кемшіліктерді дәл анықтап, жасанды видеоны жазбай танитын жасанды интеллект жасап жатыр. Пентагон дипфейктермен күресуге АҚШ университеттерін жұмылдырған. Нью-Йорк университетінің зерттеушілері көздің жиі жұмылуына қарай видеоның жалған-жалған емесін анықтайтын қосымша ендігі жасап та қойған.

Фейк жасаушылар өздерінің видеосын ешбір жасанды интеллект анықтай алмайтындай етіп жасауды үйреніп алуы да мүмкін. Мәселен, алгоритмге бірнеше жұмылған көзді жүктеп, шынайырақ етуге болады. Алайда оны да анықтайтын екінші бір интеллект қалыптастыруға болады.

Қалай болғанда да дипфейктерді жеңуге болады деп айтуға болмайды. Бұл, дәлірек айтқанда, жаңа ақпараттық майданның басталып жатқанын білдіреді.

Дауыс ше?

Енді адамның түрін ғана емес, аудиода дауысын да жасап шығуға болады. Алда сотта адам даусы бұлтартпас дәлел ретінде саналмай қалуы да мүмкін — арнаулы бағдарлама арқылы белгілі бір адамның дауысын жинап, оған қалағаныңды оп-оңай “айттыруға” мүмкіндік бар.

Adobe Project Voco аудиоредакторы немесе «дауыс фотошобы»

2016 жылы қарашада Adobe MAX 2016 конференциясында Voco жобасы таныстырылды. Voco бағдарламасына адамның даусында сөйлеп үйрену үшін 20 минут қана керек. Осы уақыт ішінде бағдарлама адам дауысын бірнеше фонемге бөліп тастайды да, осының негізінде жасанды дауыс қалыптастырады.

Lyrebird бағдарламасы

2017 жылдың сәуірінен бері Канададағы Монреал институтының студенттеі Lyrebird бағдарламасын жасап шықты. Бұл бағдарлама жасанды интеллектіні пайдаланып, бір минуттың ішінде дауысты үйнеріп алады. Үлгі ретінде зерттеушілер Дональд Трамп, Барак Обама мен Хиллари Клинтон Lyrebird бағдарламасы жайлы “айтып жатқан” аудиомен бөліскен.

Дауыстан мұны робот жасағанын анық байқауға болады. Дыбыс сапасын ұзақ отырып, ерінбей жасағанда ғана жақсартуға болады. Алайда технология дамып жатыр, алда жасанды интеллект жасаған дауысты ажырату үшін дыбыс инженеріне жүгінуге мәжбүр боламыз.

Журналист factcheck.kz

Factcheck.kz