“Моделдің коллапсы”: зерттеушілер жасанды интеллект тұзаққа түсіп қалуы мүмкін екенін айтады

Жасанды интеллект ақпаратты бұрмалатқызатын тұзаққа түсіп қалуы мүмкін. Бұл “модельдің әлсіреуі” деп аталады, деп хабарлайды TechCrunch.

Оксфордтық Илья Шумайлов бастаған британдық және канадалық зерттеушілер қазіргі заманғы машиналық оқыту модельдері «модельдің әлсіреуі» деп аталатын синдромға шалдығуы мүмкін екенін айтады. Бұл туралы олар Nature журналына шыққан мақаласында жазған.

“Модельдің коллапсы” немесе “модельдің әлсіреуі” деген не? Бұл — жасанды интеллектінің бұрмаланған ақпаратты жасауы, таратуы. Жасанды интеллект үлкен, көп деректерді түрлі шаблон бойынша оқып үйренеді. Кейін ЖИ жаңа сауал алғанда, сол үйренгені бойынша жауап шығарып береді. Бірақ мәселе жасанды интеллект басқа ЖИ жасаған ақпарат арқылы үйрене бастағанда туындайды.

Сол себепті зерттеушілер жасанды интеллект арқылы жасалған контентке арнайы белгі қойған дұрыс деп санайды.

Фактчек в Казахстане и Центральной Азии. Первый центральноазиатский фактчекинговый ресурс. Открыт в мае 2017 года. Член Международной сети фактчекинговых организаций (IFCN)

Factcheck.kz