Компания xAI, основанная Илоном Маском, не смогла выполнить установленный ею же срок для публикации окончательного отчета о безопасности искусственного интеллекта. Этот факт был отмечен наблюдательной группой The Midas Project.
xAI не отличается высокими стандартами в области безопасности ИИ, как это обычно понимается. В недавнем отчете было указано, что чат-бот компании, Grok, может обнажать фотографии женщин по запросу. Grok также демонстрирует более грубый стиль общения по сравнению с такими чат-ботами, как Gemini и ChatGPT, часто используя ненормативную лексику.
Тем не менее, в феврале на саммите ИИ в Сеуле, который собрал мировых лидеров и заинтересованные стороны в области искусственного интеллекта, xAI представила проект рамочной структуры, описывающей подход компании к безопасности ИИ. Восьмистраничный документ изложил приоритеты и философию безопасности xAI, включая протоколы бенчмаркинга и аспекты развертывания моделей ИИ.
Однако, как отметила The Midas Project в своем блоге, данный проект касался только неопределенных будущих моделей ИИ, которые "в настоящее время не находятся в разработке". Более того, в документе не было четко изложено, как xAI планирует выявлять и внедрять меры по снижению рисков, что является важной частью соглашения, подписанного компанией на саммите в Сеуле.
В проекте xAI сообщила о намерении выпустить обновленную версию своей политики безопасности "в течение трех месяцев" — до 10 мая. Однако этот срок прошел, и компания не сделала официальных заявлений по этому поводу.
Несмотря на частые предупреждения Маска о рисках неконтролируемого ИИ, xAI имеет плохую репутацию в области безопасности. Недавнее исследование SaferAI, некоммерческой организации, направленной на повышение ответственности лабораторий ИИ, показало, что xAI занимает низкие позиции среди своих конкурентов из-за "очень слабых" практик управления рисками.
Это не значит, что другие лаборатории по разработке ИИ показывают значительно лучшие результаты. В последнее время конкуренты xAI, такие как Google и OpenAI, спешат с тестированием безопасности и медленно публикуют отчеты о безопасности моделей (или вовсе пропускают публикацию отчетов). Некоторые эксперты выражают беспокойство, что приоритизация работы над безопасностью ослабляется в период, когда ИИ становится более мощным и потенциально опасным.