Генеральный директор OpenAI Сэм Альтман заявил, что компания работает с Институтом безопасности ИИ США над соглашением о предоставлении раннего доступа к своей следующей модели ИИ для тестирования безопасности. Об этом пишет TechCrunch и напоминает, что американский Институт безопасности ИИ это федеральный орган, который занимается оценкой и устранением рисков на платформах искусственного интеллекта.
Своё заявление Альтман сделал в X и его пост не содержит подробностей.
Однако, как заключает автор издания, слова руководителя компании, наряду с заключённой в июне аналогичной сделкой с британским органом по безопасности ИИ, направлены на противодействие мнению о том, что OpenAI отказалась от приоритета работы над безопасностью ИИ в поисках более эффективных и мощных генеративных технологий. Как известно, в мае OpenAI распустила подразделение, работавшее над разработкой средств управления и предотвращения выхода из-под контроля «сверхразумных» систем ИИ; это привело к отставке руководителей команды Ильи Суцкевера и Яна Лейке.
Контекст
- Соучредитель OpenAI Илья Суцкевер, покинувший компанию в мае, уже в июне представил свой новый проект в области искусственного интеллекта (ИИ), которую он называет Safe Superintelligence, или SSI. Суцкевер был главным научным сотрудником OpenAI и возглавлял внутри компании команду Superalignment вместе с Яном Лейке, который также уволился в мае, чтобы присоединиться к конкурирующей фирме по разработке ИИ-проекта Anthropic.