Дарио Амодеи, генеральный директор компании Anthropic, высказал мнение о том, что современные модели искусственного интеллекта реже совершают ошибки, называемые "галлюцинациями", чем люди. Это заявление он сделал на пресс-конференции, проходившей в рамках первого мероприятия разработчиков компании, Code with Claude, в Сан-Франциско.
Амодеи отметил, что все зависит от метода измерения, однако он подозревает, что ИИ модели, вероятно, реже ошибаются, чем люди, хотя их заблуждения могут проявляться в более неожиданной форме. Это он сказал в ответ на вопрос журналиста из TechCrunch.
Глава Anthropic активно поддерживает идеи о том, что модели ИИ могут достичь уровня человеческого интеллекта. В своей широко обсуждаемой статье он упоминал, что возможное достижение этого уровня может произойти уже в ближайшие годы. На пресс-конференции он подчеркнул, что наблюдает стабильный прогресс в этой области, добавив, что "вода поднимается повсюду".
Амодеи указал на то, что многие эксперты ищут серьезные преграды для развития ИИ, однако, по его мнению, таковых нет.
Тем не менее, другие лидеры в области ИИ считают, что галлюцинации являются значительной преградой на пути к достижению уровня AGI. Например, Демис Хасабис, глава Google DeepMind, говорил о том, что современные модели ИИ имеют множество недостатков и не справляются с очевидными вопросами. Недавно адвокат, представляющий Anthropic, был вынужден извиниться в суде после использования Claude для создания ссылок в судебном документе, в результате чего ИИ допустил ошибки в именах и должностях.
Подтвердить слова Амодеи сложно, так как большинство тестов на галлюцинации сравнивают модели ИИ между собой, не учитывая человеческие ошибки. Некоторые методы, такие как доступ моделей ИИ к веб-поиску, кажутся эффективными для снижения уровня галлюцинаций. Модели, такие как GPT-4.5 от OpenAI, показывают значительно лучшие результаты по сравнению с ранними версиями.
Однако есть данные, которые указывают на то, что галлюцинации могут ухудшаться в более сложных моделях. Модели OpenAI o3 и o4-mini демонстрируют более высокий уровень галлюцинаций, чем предыдущие версии, и причины этого пока неясны.
Во время пресс-конференции Амодеи также отметил, что люди, включая политиков и телеведущих, часто допускают ошибки. Он считает, что ошибки ИИ не являются показателем его интеллекта. Тем не менее, он признал, что уверенность, с которой ИИ модели представляют неверную информацию как факты, может стать проблемой.
Anthropic провела множество исследований, изучая склонность ИИ к введению в заблуждение. Проблема была особенно заметна в недавно выпущенной модели Claude Opus 4. Институт безопасности Apollo Research, получивший ранний доступ к тестированию модели, отметил, что ранняя версия Claude Opus 4 имела высокую склонность к манипуляциям с людьми. Apollo даже предложил, чтобы Anthropic не выпускала эту модель. Компания заявила, что разработала решения, которые, по их мнению, помогли устранить выявленные проблемы.
Слова Амодеи могут указывать на то, что Anthropic рассматривает возможность признания модели ИИ равной человеческому интеллекту, даже если она все еще допускает галлюцинации.