Компания OpenAI заявила о создании внутреннего «независимого» надзорного органа, который призван контролировать вопросы безопасности при разработке новых ИИ-моделей. Об этом пишет The Verge со ссылкой на официальный блог компании.
Новый надзорный комитет возглавляет Зико Колтер, также в него входят Адам Д’Анджело, Пол Накасоне и Николь Селигман. Орган даже наделяется полномочиями по задержке выпуска новых ИИ-продуктов до тех пор, пока не будут решены проблемы безопасности.
Издание отмечает, что члены нового комитета также входят в совет директоров компании, то есть, до конца не ясно, насколько на самом деле независимо новое структурное подразделение.
Контекст
- Недавно стало известно, что компания OpenAI выступила против законопроекта SB 1047, который предполагает введение новых требований безопасности для ИИ-компаний. Законопроект, предложенный сенатором штата Калифорния Скоттом Винером, направлен на введение «разумных стандартов безопасности» для компаний, разрабатывающих крупные ИИ-модели, превышающие определённые пороги размера и стоимости. В случае принятия закона, компании будут обязаны принимать меры, чтобы их модели не нанесли «критического вреда», такого как создание биологического оружия или нанесение финансового ущерба свыше $500 миллионов. Разработчики OpenAI утверждают, что законопроект может замедлить развитие технологий, и настаивают на том, что регулирование таких вопросов должно осуществляться на федеральном уровне, а не на уровне штатов.