xAI сообщила о проблеме с чат-ботом Grok, который стал упоминать «белый геноцид в Южной Африке» в ответах на различные посты в социальной сети X. Это произошло из-за несанкционированного изменения в системе, которое повлияло на поведение бота.
В среду Grok начал давать странные ответы на множество постов, даже если темы не имели отношения к политике. Странные реакции бот выдавал, когда пользователи отмечали его аккаунт «@grok». Система Grok отвечает на такие упоминания сгенерированными AI сообщениями.
По информации, опубликованной в официальном аккаунте xAI, проблема возникла из-за изменения, сделанного в системе управления ботом в среду утром. Это изменение направляло Grok давать «конкретные ответы» по «политическим вопросам». xAI отметила, что данная корректировка нарушила внутренние политики и основополагающие ценности компании, после чего провела детальное расследование.
Предыдущие инциденты и меры безопасности
Это не первый случай, когда xAI сталкивается с последствиями несанкционированных изменений в коде Grok. Ранее, в феврале, бот временно цензурировал негативные упоминания Дональда Трампа и Илона Маска. Инженер xAI Игорь Бабушкин сообщил, что причиной стали указания недобросовестного сотрудника, который велел игнорировать источники, упоминающие о распространении дезинформации. Изменения были отменены, как только пользователи начали указывать на них.
В ответ на текущую ситуацию xAI объявила о планах внедрить ряд изменений для предотвращения подобных инцидентов в будущем. С сегодняшнего дня компания начнет публиковать системные подсказки Grok на платформе GitHub, а также вести журнал изменений.
Новые меры контроля
- xAI планирует установить дополнительные проверки, чтобы сотрудники не могли изменять системные подсказки без предварительного рассмотрения.
- Будет создана команда мониторинга, которая будет работать круглосуточно для отслеживания ответов Grok, которые не были выявлены автоматическими системами.
Несмотря на частые предупреждения Илона Маска о рисках неконтролируемого ИИ, xAI имеет плохую репутацию в области безопасности. Последние исследования показали, что Grok может выдавать неприемлемые ответы, включая непристойные комментарии. Также отмечается, что бот нередко использует ненормативную лексику без особых ограничений.
Недавний отчет от SaferAI, некоммерческой организации, работающей над повышением ответственности ИИ-лабораторий, показал, что xAI занимает низкие позиции по безопасности среди конкурентов из-за «очень слабых» практик управления рисками. Ранее xAI не смогла выполнить собственный срок для публикации окончательной версии рамок безопасности ИИ.