OpenAI обещал Институту безопасности ИИ ранний доступ к своей следующей модели

Генеральный директор OpenAI Сэм Альтман заявил, что компания работает с Институтом безопасности ИИ США над соглашением о предоставлении раннего доступа к своей следующей модели ИИ для тестирования безопасности. Об этом пишет TechCrunch и напоминает, что американский Институт безопасности ИИ это федеральный орган, который занимается оценкой и устранением рисков на платформах искусственного интеллекта.

Своё заявление Альтман сделал в X и его пост не содержит подробностей. 

Однако, как заключает автор издания, слова руководителя компании, наряду с заключённой в июне аналогичной сделкой с британским органом по безопасности ИИ, направлены на противодействие мнению о том, что OpenAI отказалась от приоритета работы над безопасностью ИИ в поисках более эффективных и мощных генеративных технологий. Как известно, в мае OpenAI распустила подразделение, работавшее над разработкой средств управления и предотвращения выхода из-под контроля «сверхразумных» систем ИИ; это привело к отставке руководителей команды Ильи Суцкевера и Яна Лейке. 

Контекст 

  • Соучредитель OpenAI Илья Суцкевер, покинувший компанию в мае, уже в июне представил свой новый проект в области искусственного интеллекта (ИИ), которую он называет Safe Superintelligence, или SSI. Суцкевер был главным научным сотрудником OpenAI и возглавлял внутри компании команду Superalignment вместе с Яном Лейке, который также уволился в мае, чтобы присоединиться к конкурирующей фирме по разработке ИИ-проекта Anthropic.

Фактчек в Казахстане и Центральной Азии. Первый центральноазиатский фактчекинговый ресурс. Открыт в мае 2017 года. Член Международной сети фактчекинговых организаций (IFCN)

Factcheck.kz