AI Personal Learning
und praktische Anleitung

Durchgesickertes Microsoft-Papier: nur 8B für GPT-4o-mini und 100B für o1-mini?

Es gab eine anhaltende Diskussion über die Parametergrößen von Mainstream-LLMs mit geschlossenem Quellcode, und in den letzten 2 Tagen von 2024 wurde ein Artikel von Microsoft über dieAufdeckung und Korrektur von medizinischen Fehlern in klinischen AufzeichnungenVermutungenExperimentBezugsgrößeDie MEDEC-Studie hat versehentlich und direkt die Größenordnung ihrer Parameter verfehlt:o1-Vorschau, GPT-4.GPT-4o undClaude 3.5 Sonett.

Adresse des Papiers: https://arxiv.org/pdf/2412.19260v1


Microsoft sagt: GPT-4o-mini ist nur 8B, o1-mini ist nur 100B?-1

Der experimentelle Teil des Versuchs ist ebenfalls in 3 Blöcke mit großen Modellparameterskalen unterteilt:7-8B, ~100-300B, ~1,7Taber (nicht)GPT-4o-miniMit nur 8B auf dem ersten Platz zu stehen, ist ein bisschen unglaublich.

 

Zusammenfassungen

Microsoft sagt: GPT-4o-mini ist nur 8B, o1-mini ist nur 100B?-1

 

  • Claude 3.5 Sonnet (2024-10-22), ~175B
  • ChatGPT, ~175B
  • GPT-4, etwa 1,76 T
  • GPT-4o, ~200B
  • GPT-4o-mini (gpt-4o-2024-05-13) nur 8B
  • Letzter o1-mini (o1-mini-2024-09-12) nur 100B
  • o1-vorschau (o1-vorschau-2024-09-12) ~ 300B
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Durchgesickertes Microsoft-Papier: nur 8B für GPT-4o-mini und 100B für o1-mini?

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)