Есть ли у ИИ «системы ценностей» – учёные исследовали проблему 

Несколько месяцев назад было обнародовано исследование, в котором сообщалось, что по мере развития систем искусственного интеллекта (ИИ), они формируют некие «системы ценностей» – то есть, некие установки, которые заставляют, к примеру, ставить собственное благополучие выше благополучия людей. Однако, как пишет TechCrunch, новая публикация учёных из Массачусетского технологического института опровергла это представление. 

Команда авторов утверждает, что их исследование показало: обеспечение надёжного «поведения» моделей ИИ, возможно, более сложная задача, чем принято думать. Также они подчёркивают, что системы ИИ галлюцинируют, а как следствие становятся иногда непредсказуемыми.

Докторант Массачусетского технологического института и соавтор исследования Стивен Каспер вместе с коллегами изучили последние варианты моделей ИИ от Meta, Google, Mistral, OpenAI и Anthropic. Они хотели понять, в какой степени модели демонстрируют устойчивые «взгляды» и ценности (например, индивидуалистские или коллективистские). Исследователи также выясняли, можно ли управлять этими «взглядами», изменяя их, и насколько стабильно модели придерживались этих «мнений» при различных сценариях.

В итоге учёным стало понятно, что ни одна из моделей ИИ не продемонстрировала последовательность и устойчивость «предпочтений». 

В зависимости от формулировок и оформления подсказок, они придерживались самых разных точек зрения. 

Стивен Каспер не исключает, что модели ИИ принципиально неспособны действовать в рамках собственных «предпочтений». 

«Для меня самый важный итог всех этих изысканий заключается в том, что ко мне пришло понимание – модели на деле не являются системами со стабильным, последовательным набором убеждений… По сути своей они подражатели, которые занимаются всевозможными спекуляциями», – говорит исследователь.

Контекст 

  • В 2023 году один из руководителей Google предупредил о «галлюцинациях» искусственного интеллекта, с которыми можно столкнуться при использовании набирающих популярность чат-ботов. По его словам, «это выражается в том, что машина дает убедительный, но полностью выдуманный ответ». 
  • В 2024 году генеральный директор Apple Тим Кук в интервью заявил: он не уверен, что компания сможет полностью остановить галлюцинации искусственного интеллекта (ИИ).

Фактчек в Казахстане и Центральной Азии. Первый центральноазиатский фактчекинговый ресурс. Открыт в мае 2017 года. Член Международной сети фактчекинговых организаций (IFCN)

Factcheck.kz