AIパーソナル・ラーニング
と実践的なガイダンス

マイクロソフトの論文リーク:GPT-4o-miniは8B、o1-miniは100Bだけ?

主流のクローズドソースLLMのパラメータサイズに関する議論が続いているが、2024年の最後の2日間に、マイクロソフトから、LLMのパラメータサイズに関する記事が発表された。臨床記録における医療ミスの発見と修正推測実験参照基準MEDECの研究は、偶然に、そして直接的にそのパラメーターの規模を見落とした:o1-preview、GPT-4。GPT-4oとクロード3.5ソネット

論文アドレス:https://arxiv.org/pdf/2412.19260v1


マイクロソフト曰く:GPT-4o-miniはたったの8B、o1-miniはたったの100B?

実験部分もまた、モデル・パラメーターのスケールが大きい3つのブロックに分けられている:7~8b、~100~300b、~1.7tでもGPT-4o-ミニわずか8Bで1位というのはちょっと信じられない。

 

概要

マイクロソフト曰く:GPT-4o-miniはたったの8B、o1-miniはたったの100B?

 

  • クロード 3.5ソネット(2024-10-22)、~175B
  • ChatGPT、~175B
  • GPT-4、約1.76T
  • GPT-4o、~200B
  • GPT-4o-mini(gpt-4o-2024-05-13)のみ 8B
  • 最新のo1-mini (o1-mini-2024-09-12)のみ 100B
  • o1プレビュー (o1-preview-2024-09-12) ~ 300B
無断転載を禁じます:チーフAIシェアリングサークル " マイクロソフトの論文リーク:GPT-4o-miniは8B、o1-miniは100Bだけ?

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語