ChatGPT арқылы соғыс туралы жалған ақпарат тарады

Әлдекім OpenAI компаниясының GhatGPT технологиясын Қытайдағы, Ирандағы және Израильдегі жағдай туралы дезинформация тарату үшін қолданған. Бұл туралы SecurityLab хабарлады.

OpenAI өзінің өнімдерін жалған ақпарат тарату үшін қолданып, адамдарды шатастыруға тыйым салғанын айтады.

Компания өзінің өнімі арқылы бірнеше жасырын операциялар жасалғанын, ЖИ моделі мәтін мен кескіндердің бұрынғыға қарағанда қатесін аз әрі көлемін үлкен етіп жасағанын айтады.

OpenAI-дың есебіндегі мәліметі бойынша, ChatGPT арқылы Газа секторындағы соғыс, Үндістандағы сайлау, АҚШ және Еуропадағы саясат, Қытай диссиденттері мен шетел үкіметтерінің Қытай билігін сынағаны туралы жалған ақпар тараған.

Сонымен қатар қолданушылар жасанды интеллектіні жеке өнімділігін жақсарту, кодты түзеу және сәлеуметтік желілердегі әрекетті зерттеу үшін қолданған.

Фактчек в Казахстане и Центральной Азии. Первый центральноазиатский фактчекинговый ресурс. Открыт в мае 2017 года. Член Международной сети фактчекинговых организаций (IFCN)

Factcheck.kz