• Что бы вступить в ряды "Принятый кодер" Вам нужно:
    Написать 10 полезных сообщений или тем и Получить 10 симпатий.
    Для того кто не хочет терять время,может пожертвовать средства для поддержки сервеса, и вступить в ряды VIP на месяц, дополнительная информация в лс.

  • Пользаватели которые будут спамить, уходят в бан без предупреждения. Спам сообщения определяется администрацией и модератором.

  • Гость, Что бы Вы хотели увидеть на нашем Форуме? Изложить свои идеи и пожелания по улучшению форума Вы можете поделиться с нами здесь. ----> Перейдите сюда
  • Все пользователи не прошедшие проверку электронной почты будут заблокированы. Все вопросы с разблокировкой обращайтесь по адресу электронной почте : info@guardianelinks.com . Не пришло сообщение о проверке или о сбросе также сообщите нам.

Grok 3 API - Reasoning Tokens are Counted Differently

Lomanu4 Оффлайн

Lomanu4

Команда форума
Администратор
Регистрация
1 Мар 2015
Сообщения
1,481
Баллы
155
I've learned it the hard way... If you use the recently released Grok-3 Mini reasoning model (which is

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

by the way) you might have your token usage reported wrong...

TLDR;


While both OpenAI and xAI report reasoning usage in usage.completion_tokens_details.reasoning_tokens field:

  • OpenAI includes reasoning tokens in usage.completion_tokens
  • xAI doesn't include

Hence for OpenAI (and according to my tests for Deepseek R1) in order to get the total tokens you can use the old good completion_tokens field. With xAI you need to add up the 2 values to get the right totals (and get you cost estimations correct).

Neither litellm nor AG2 (out of recently used LLM libs) adjust the reported usage for that Grok's quirk.

Not fully OpenAI Chat Completions API Compliant


Grok API provides a compatible OpenAI endpoint. For reasoning models the didn't invent the wheel and use the standard

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

just like

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

with its' o1/o3/o4 models. Yet for some reasons xAI decided to deviate from OpenAI's approach to reasoning tokens accounting.

That's unfortunate this inconsistency got into prod API from xAI.


Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

 
Вверх Снизу