
Dolphin 2.6 Mixtral 8x7B 🐬
Контекст:32 768 токенов
Добавлена:21 декабря 2023 г.
Поддерживаемые форматы
Принимает:
Генерирует:
Описание
Это модель с контекстом на 16k, основанная на Mixtral-8x7b. Она демонстрирует отличные результаты в программировании благодаря обширной тренировке на данных, связанных с кодированием. Модель отличается высокой послушностью, но не прошла настройку DPO. Она не содержит цензуры и лишена механизмов выравнивания и предвзятости. Для этичного использования требуется внешний слой выравнивания. Пользователям рекомендуется ответственно обращаться с этой моделью, как указано в блоге о неконтролируемых моделях на сайте erichartford.com.
Стоимость
Провайдер
Unknown Provider
cognitivecomputations/dolphin-mixtral-8x7b