Утечка документов Microsoft: только 8B для GPT-4o-mini и 100B для o1-mini?

Новости ИИОпубликовано 8 месяцев назад Круг обмена ИИ
5.4K 00

Продолжается дискуссия о размерах параметров основных закрытых LLM, и в последние 2 дня 2024 года появилась статья от Microsoft оВыявление и исправление врачебных ошибок в клинических записяхпредположениеэкспериментэталонВ исследовании MEDEC случайно и прямо упущен масштаб их параметров:o1-preview, GPT-4.ГПТ-4о иКлод 3.5 Сонет.

Бумажный адрес: https://arxiv.org/pdf/2412.19260v1

微软论文泄露:GPT-4o-mini只有8B,o1-mini仅100B?

Экспериментальная часть эксперимента также разделена на 3 блока больших шкал параметров модели:7-8B, ~100-300B, ~1.7Tно (не)GPT-4o-miniПопасть в первый слот, имея всего 8B, немного невероятно.

 

резюме

微软论文泄露:GPT-4o-mini只有8B,o1-mini仅100B?

 

  • Клод 3.5 Сонет (2024-10-22), ~175B
  • ChatGPT, ~175B
  • GPT-4, приблизительно 1,76 Т
  • GPT-4o, ~200B
  • GPT-4o-mini (gpt-4o-2024-05-13) только 8B
  • Последние o1-mini (o1-mini-2024-09-12) всего 100B
  • o1-preview (o1-preview-2024-09-12) ~ 300B
© заявление об авторских правах

Похожие статьи

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...