유출된 Microsoft 문서: GPT-4o-mini는 8억, o1-mini는 100억에 불과?

AI 뉴스8 개월 전에 게시 됨 AI 공유 서클
7.3K 00

주류 클로즈 소스 LLM의 파라미터 크기에 대한 논의가 계속되고 있으며, 2024년 마지막 2일에 Microsoft에서 다음과 같은 기사를 발표했습니다.임상 노트에서 의료 오류 감지 및 수정추측실험참조 표준MEDEC 연구는 실수로 매개변수의 규모를 직접적으로 놓쳤습니다:o1-preview, GPT-4.GPT-4o 및클로드 3.5 소네트.

논문 주소: https://arxiv.org/pdf/2412.19260v1

微软论文泄露:GPT-4o-mini只有8B,o1-mini仅100B?

실험의 실험 부분에서는 큰 모델 매개변수 스케일을 3개의 블록으로 나눕니다:7-8B, ~100-300B, ~1.7T그러나 (아닌)GPT-4o-mini첫 번째 슬롯에 8B만 배치된 것은 다소 믿기지 않습니다.

 

요약

微软论文泄露:GPT-4o-mini只有8B,o1-mini仅100B?

 

  • Claude 3.5 소네트(2024-10-22), ~175B
  • ChatGPT, ~175B
  • GPT-4, 약 1.76T
  • GPT-4o, ~200B
  • GPT-4o-mini(gpt-4o-2024-05-13) 전용 8B
  • 최신 o1-mini(o1-mini-2024-09-12) 전용 100B
  • O1-PREVIEW (O1-PREVIEW-2024-09-12) ~ 300B
© 저작권 정책

관련 문서

댓글 없음

댓글에 참여하려면 로그인해야 합니다!
지금 로그인
없음
댓글 없음...