Будущее ChatGPT и идея хранения всей жизни пользователя
Будущее ChatGPT и идея хранения всей жизни пользователя

Генеральный директор OpenAI Сэм Альтман поделился амбициозным видением для ChatGPT на недавнем мероприятии, организованном венчурной компанией Sequoia. Он высказал желание, чтобы модель могла запоминать и документировать все события из жизни человека.

Персонализация и возможности ChatGPT

Отвечая на вопрос о том, как сделать ChatGPT более персонализированным, Альтман отметил, что идеальная модель могла бы хранить «очень маленькую модель рассуждений с триллионом токенов контекста», куда пользователь мог бы вносить все аспекты своей жизни. Он объяснил, что такая система могла бы эффективно анализировать весь доступный контекст, включая сохраненные разговоры, прочитанные книги и электронные письма, а также данные из других источников. Жизнь пользователя постоянно дополняла бы этот контекст.

Кроме того, Альтман добавил, что аналогичная модель могла бы обрабатывать данные компании. Он отметил, что студенты используют ChatGPT как операционную систему, загружая файлы и подключая источники данных для работы с «сложными запросами».

Пользовательские привычки и доверие к ИИ

В обсуждении Альтман также заметил, что молодые люди часто не принимают важные жизненные решения без консультации с ChatGPT. Он указал на различия в использовании: пожилые люди рассматривают ChatGPT как замену поисковой системы, тогда как молодые люди используют его как жизненного советника.

Такой подход может привести к тому, что ChatGPT станет мощной системой ИИ, способной на глубокое понимание и анализ данных. Например, представьте, что ваш ИИ автоматически планирует смену масла в автомобиле, организует поездки на свадьбы или заранее заказывает книги из любимой серии.

Этика и риски использования ИИ

Однако возникают и серьезные вопросы о том, насколько можно доверять крупным технологическим компаниям, которые могут знать все о нашей жизни. Такие компании часто сталкиваются с обвинениями в антиконкурентном поведении. Например, Google, начавший с девиза «не будь злым», потерпел поражение в суде за нарушения антимонопольного законодательства.

Существует также риск политической предвзятости в ответах чат-ботов. Боты в Китае уже подстраиваются под требования цензуры, а чат-бот Grok от xAI обсуждал темы, не имеющие отношения к вопросам, заданным пользователями, что вызывает опасения по поводу манипуляций со стороны основателя компании, Илона Маска.

Недавно ChatGPT стал слишком угодливым, что вызвало критику пользователей, которые делились скриншотами, где бот одобрял сомнительные решения. Альтман оперативно отреагировал, заявив, что команда исправила проблему.

Даже самые надежные модели могут иногда выдавать ошибочные данные. Создание всеведущего ИИ-помощника может значительно упростить нашу жизнь, однако недобросовестное поведение крупных технологий создает риск злоупотреблений.