Крупные технологические компании создали новое объединение, которое будет заниматься проблемой безопасного искусственного интеллекта (ИИ). Об этом сообщается в блоге Google.
«Сегодня на форуме безопасности в Аспене (город в США — ред.) вместе с нашими коллегами из отрасли мы представляем Коалицию за безопасный искусственный интеллект (CoSAI). В течение прошлого года мы работали над созданием этой коалиции, чтобы разработать комплексные меры безопасности для устранения уникальных рисков, связанных с ИИ — как для проблем, которые возникают в реальном времени, так и для тех, которые находятся за горизонтом», — говорится в сообщении Google.
В состав CoSAI вошли компании Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, Paypal и Wiz.
Заявляется о трёх направлениях, по которым CoSAI будет сотрудничать с промышленностью и научными кругами:
- Безопасность цепочки поставок программного обеспечения для систем искусственного интеллекта.
- Подготовка специалистов к меняющемуся ландшафту кибербезопасности.
- Управление безопасностью ИИ (разработка таксономии рисков и средств контроля, контрольного списка, оценочной карты).
Контекст
- В прошлом году OpenAI, Microsoft, Google и Anthropic объявили о создании Frontier Model Forum — коалиции, призванную обеспечить «безопасную и ответственную разработку» так называемых «пограничных моделей ИИ».