Как сообщает «НБН» со ссылкой на материал AXIOS, Anthropic, являющаяся компанией-разработчиком Claude 3 Sonnet и Минэнергетики США, привлекли специалистов Национального управления ядерной безопасности (NNSA) к изучению открытости указанной ИИ-модели.
В процессе тестирования используется методика «красных запросов» (Red Teaming), при которой эксперты умышленно попытаются ввести в заблуждение/озадачить ИИ-систему для выявления ее уязвимостей. В данной конкретной ситуации, специалисты NNSA намерены смоделировать сценарии, в которых киберзлоумышленники попытаются выманить у Claude 3 Sonnet секретные сведения о ядерном оружии.
В Anthropic добавили — это первая фаза подобных тестов для искусственного интеллекта (длительность — до февраля 2024 года), проводящихся в условиях абсолютной секретности, а успешные испытания помогут расширить сферу сотрудничества с правительственными структурами, одновременно усилив безопасность ИИ.
Ранее мы писали о том, что ученые показывали, как существующие ИИ-модели справились с нестандартным математическим тестом.