새해를 신나게 시작해보세요!
- GPT-5에 의해 생성될 수 있습니다.
GPT-5가 실재한다고 하면 어떨까요? 실제 존재할 뿐만 아니라 이미 우리가 볼 수 없는 방식으로 세상을 변화시키고 있습니다. 가정을 들어보겠습니다. OpenAI가 GPT-5를 개발했지만 수백만 명에게 공개하는 것보다 ROI가 훨씬 높기 때문에 내부에 보관하고 있다고 가정해 보겠습니다. ChatGPT 사용자. 또한, 사용자로부터 얻는 ROI는 돈이 아닙니다. 오히려 다른 문제입니다. 보시다시피 아이디어는 매우 간단하며, 문제는 이를 가리키는 단서들을 하나로 묶는 것입니다. 이 글에서는 이러한 단서들이 결국 연결된다고 생각하는 이유에 대해 자세히 설명합니다.
면책 조항: 이것은 순수한 추측입니다. 증거는 모두 공개되어 있지만 제가 맞다는 것을 확인할 수 있는 유출이나 내부 소문은 없습니다. 사실 저는 이 글을 통해 이 이론을 구축하는 것이지 단순히 공유하는 것이 아닙니다. 저는 특권적인 정보를 가지고 있지 않으며, 설사 정보를 가지고 있다고 해도 기밀 유지 계약에 구속됩니다. 이 가설이 설득력 있는 이유는 다음과 같습니다. 논리적 . 솔직히 이 루머 기계를 가동하려면 또 무엇이 필요할까요?
믿든 안 믿든 그것은 여러분의 선택에 달려 있습니다. 제가 틀렸다고 해도 - 그리고 결국 답을 알게 되겠지만 - 재미있는 탐정 게임이라고 생각합니다. 댓글 섹션에서 추측을 해보시되, 건설적이고 사려 깊은 의견을 남겨주시기 바랍니다. 먼저 글 전체를 읽어보시기 바랍니다. 그 외에는 모든 토론을 환영합니다.
I. 오퍼스 3.5의 미스터리한 실종
GPT-5를 살펴보기 전에, 똑같이 누락된 먼 사촌인 Anthropic의 Claude Opus 3.5.
아시다시피 3대 AI 연구소인 OpenAI, Google DeepMind, Anthropic은 모두 가격/레이턴시 대 성능 스펙트럼을 포괄하는 모델 포트폴리오를 제공합니다. OpenAI에는 GPT-4o가 있습니다, GPT-4o mini, o1 및 o1-mini를 보유하고 있으며, Google DeepMind는 다음을 제공합니다. 쌍둥이자리 울트라, 프로, 플래시, 앤트로픽은 클로드 오푸스, 소네트, 하이쿠를 보유하고 있으며, 목표는 분명합니다: 가능한 한 많은 고객 프로필을 커버하는 것입니다. 비용에 관계없이 최고의 성능을 원하는 고객도 있고, 합리적인 가격의 적절한 솔루션이 필요한 고객도 있습니다. 모두 말이 되죠.
하지만 2024년 10월에 이상한 일이 벌어졌습니다. 모두가 예상했던 대로 인류학 2024년 5월에 출시된 GPT-4o에 대응하기 위해 클로드 오퍼스 3.5를 출시했지만, 10월 22일에 클로드 소네트 3.5(소네트 3.6으로 알려짐)의 업데이트 버전을 출시하면서 사라졌고, 이로써 Anthropic은 GPT-4o와 직접 경쟁할 제품이 없게 되었습니다. GPT-4o. 이상하지 않나요? Opus 3.5의 타임라인을 간략히 살펴보겠습니다:
- 10월 28일, 저는 주간 리뷰 기사에서 "[소네트 3.6은]... 많은 기대를 모았던 Opus 3.5 훈련이 실패하는 동안 발생한 중간 점검점이라는 소문이 있습니다."라고 썼습니다. 같은 날, r/ClaudeAI 하위 포럼에 "클로드 3.5 오푸스는 더 이상 사용되지 않습니다."라는 게시물과 함께 Anthropic 모델 페이지 링크가 올라왔지만, 아직 오푸스 3.5의 흔적은 보이지 않습니다. 새로운 펀딩 라운드를 앞두고 투자자들의 신뢰를 유지하기 위한 조치라는 추측이 있습니다.
- 11월 11일, Anthropic의 CEO Dario Amodei는 Lex Fridman 팟캐스트에서 "정확한 날짜를 밝힐 수는 없지만, Claude 3.5 Opus를 출시할 계획입니다." 이 문구는 조심스럽게 모호하지만 효과적입니다.
- 11월 13일, 블룸버그는 "훈련이 완료된 후 앤트로픽은 3.5 오푸스가 이전 버전보다 평가에서 우수한 성능을 보였지만, 모델 규모와 구축 비용을 고려할 때 기대에 미치지 못했다"는 초기 소문을 확인했습니다. Dario는 Opus 3.5 훈련이 실패하지 않았음에도 불구하고 결과가 만족스럽지 않았기 때문인 듯 날짜를 밝히지 않았습니다. 다음 사항에 주목하세요. 비용 대비 성능 비율 성능뿐 아니라
- 12월 11일, 반도체 전문가 딜런 파텔과 세미애널리시스 팀은 마지막 반전을 선사하며 "Anthropic이 클로드 3.5 오퍼스 훈련을 완료하고 좋은 성과를 거두었습니다... ... 하지만 출시하지는 않았습니다. 왜냐하면 그들은 Claude 3.5 Opus로 합성 데이터 생성하기 보너스 모델링을 통해 클로드 3.5 소네트를 크게 향상시켰습니다."
요컨대, Anthropic은 클로드 오퍼스 3.5를 훈련시켰지만 결과가 좋지 않아 이름을 삭제했습니다. dario는 다른 훈련 과정을 통해 결과를 개선할 수 있었다고 믿고 날짜를 피합니다. 블룸버그는 기존 모델보다 성능이 뛰어나지만 추론 비용(모델 사용에 따른 사용자 비용)이 만만치 않다는 사실을 확인했고, 딜런의 팀은 소네트 3.6과 사라진 오퍼스 3.5 사이의 연관성을 밝히며 후자가 내부적으로 합성 데이터를 생성하여 전자의 성능을 개선하는 데 사용되었다는 사실을 알게 됩니다.
전체 프로세스는 다음과 같이 도표화할 수 있습니다:

더 작고 더 저렴하게?
강력하고 비용이 많이 드는 모델을 사용하여 데이터를 생성하여 약간 약하지만 더 경제적인 모델을 보강하는 과정을 증류라고 합니다. 이는 일반적인 관행입니다. 이 기술을 통해 AI 연구소는 사전 학습만으로는 한계가 있는 한계를 극복하고 더 작은 모델의 성능을 향상시킬 수 있습니다.
증류 방법에는 여러 가지가 있지만 여기서는 다루지 않겠습니다. 기억해야 할 핵심 사항은 '교사'로서의 강력한 모델이 '학생' 모델을 [작고, 저렴하고, 빠르게] + (소수점 또는 분수 뒤에 오는)보다 약간 작습니다. 작고, 저렴하고, 빠른] +로 변환됨 강력한 . 증류는 강력한 모델을 금광으로 바꿔줍니다.Dylan은 이것이 왜 Anthropic의 Opus 3.5-Sonnet 3.6 조합에 적합한지 설명합니다:
(기존 소네트에 비해 새로운 소네트의) 추론 비용은 크게 변하지 않았지만, 모델 성능은 향상되었습니다. 3.5 오푸스로 사후 학습을 통해 3.5 소네트를 얻을 수 있는데 굳이 비용 측면에서 3.5 오푸스를 출시하는 이유는 무엇일까요?
다시 비용 문제로 돌아가서, 증류는 추론 비용을 제어하면서 성능을 개선합니다. 이는 블룸버그가 보도한 핵심 문제를 직접적으로 해결한 것으로, Anthropic은 결과가 부진할 뿐만 아니라 내부 가치가 더 높기 때문에 Opus 3.5를 출시하지 않기로 결정했습니다. (딜런은 이것이 바로 오픈소스 커뮤니티가 오픈AI 금광에서 직접 금을 캐고 있는 GPT-4를 빠르게 따라잡고 있는 이유라고 지적합니다).
가장 놀라운 계시?Sonnet 3.6은 탁월할 뿐만 아니라 최상위 레벨 Beyond. Beyond GPT-4o. Anthropic의 미드레인지 모델은 Opus 3.5를 통해 증류하여 OpenAI의 플래그십 모델을 능가했습니다(다른 이유도 있겠지만, AI에서 5개월은 충분히 긴 시간입니다). 갑자기 높은 비용이 곧 고성능의 대명사라는 인식이 무너지기 시작했습니다.
OpenAI의 CEO인 샘 알트먼이 경고한 "클수록 좋다"는 시대는 어떻게 되었을까요? 제가 이에 대해 글을 썼습니다. 최고의 연구소들이 비밀주의에 빠지면서 매개변수의 공유를 중단했습니다. 매개변수 크기는 더 이상 신뢰할 수 없었고, 우리는 현명하게 벤치마크 성능에 집중하는 것으로 방향을 전환했습니다. OpenAI에서 마지막으로 공개된 매개변수 크기는 2020년 GPT-3의 경우 1,750억 개였습니다. 2023년 6월에는 GPT-4가 약 1조 8천억 개의 매개변수를 가진 하이브리드 전문가 모델이라는 소문이 돌았습니다. 2023년 7월 Semianalysis의 후속 세부 평가 결과 GPT-4는 17조 6천억 개의 매개변수를 가진 것으로 확인되었습니다. 세미애널리시스의 후속 세부 평가 결과, 2023년 7월에 GPT-4는 1조 7,600억 개의 파라미터를 가지고 있는 것으로 확인되었습니다.
1년 반 후인 2024년 12월까지 AI의 미래 영향력을 연구하는 기관인 EpochAI의 연구원 에게 에르딜(Ege Erdil)은 GPT-4o와 소네트 3.6을 포함한 프론티어 모델의 파라미터 크기가 다음과 같이 크게 증가할 것으로 예상합니다. GPT-4보다 작습니다(두 벤치마크 모두 GPT-4보다 성능이 뛰어나지만):
... 1세대 GPT-4o 및 클로드 3.5 소네트와 같은 현재 프론티어 모델은 4o는 약 2,000억 개의 파라미터, 3.5 소네트는 약 4,000억 개로 GPT-4보다 훨씬 작을 수 있습니다 .... 추정치의 거칠기로 인해 최대 2배의 오차가 발생할 수 있습니다.
그는 연구소에서 아키텍처 세부 사항을 공개하지 않고 어떻게 그 수치를 달성했는지 자세히 설명하지만, 저희에게는 중요하지 않습니다. 중요한 것은 안개가 걷히고 있다는 점입니다. Anthropic과 OpenAI는 비슷한 궤적을 따르고 있는 것으로 보입니다. 최신 모델은 이전 모델보다 더 우수할 뿐만 아니라 더 작고 저렴합니다. 우리는 Anthropic이 Opus 3.5를 증류하여 이를 달성했다는 것을 알고 있습니다. 하지만 OpenAI는 어떻게 했을까요?

III. 보편주의에 의해 주도되는 AI 연구실
앤트로픽의 증류 전략은 Opus 3.5의 훈련 결과가 좋지 않다는 특수한 상황에서 비롯된 것이라고 생각할 수도 있습니다. 하지만 사실 Anthropic의 상황은 특별한 것이 아니며, 구글 딥마인드와 OpenAI의 최신 훈련 결과도 똑같이 만족스럽지 못합니다. (결과가 좋지 않다는 것은 다음과 같은 의미는 아닙니다. 이 모델은 더 나쁩니다. ) 불충분한 데이터로 인한 수익률 감소, 트랜스포머 아키텍처의 본질적인 한계, 사전 학습 스케일링 법칙의 정체 등 그 이유는 중요하지 않습니다. 어쨌든 Anthropic의 특정 상황은 사실 보편적입니다.
하지만 블룸버그 보고서의 내용을 기억하세요: 성과 지표는 비용만큼만 좋은 것입니다. 이것이 또 다른 공통된 요인인가요? 네, Ege는 그 이유를 ChatGPT/GPT-4 붐에 따른 수요 급증으로 설명합니다. 제너레이티브 AI는 연구소들이 지속적으로 확대되는 손실을 감당하기 어려울 정도로 빠른 속도로 확산되고 있습니다. 이로 인해 추론 비용을 줄여야 했습니다(훈련은 한 번만 필요하고 추론 비용은 사용자 규모와 사용량에 따라 증가). 매주 3억 명의 사용자가 제품을 사용한다면 운영 비용이 갑자기 치명적일 수 있습니다.
소네트 3.6에 증류법을 도입해 Anthropic을 향상시킨 요인은 OpenAI에도 기하급수적으로 영향을 미치고 있습니다. 증류법은 작은 모델을 제공함으로써 추론 비용 문제를 해결하고, 평범한 성능에 대한 대중의 반발을 피하기 위해 큰 모델을 출시하지 않는 두 가지 문제를 강점으로 전환하는 데 효과적이기 때문입니다.
Ege는 OpenAI가 오버트레이닝이라는 대안을 선택할 수도 있다고 생각합니다. 즉, 계산적으로 최적화되지 않은 상태에서 더 작은 모델로 더 많은 데이터를 훈련하는 것입니다. "추론이 모델 비용의 대부분을 차지하는 경우 더 작은 모델로 더 많은 토큰을 훈련하는 것이 가장 좋습니다." 하지만 오버트레이닝은 더 이상 불가능합니다. 추론이 모델 비용의 대부분을 차지하는 경우, 더 작은 모델로 더 많은 토큰을 훈련하는 것이 좋습니다." 그러나 최근 Elon Musk와 Ilya Sutskever가 인정했듯이, AI Labs의 고품질 사전 훈련 데이터가 부족해지면서 과잉 훈련은 더 이상 불가능해졌습니다.
다시 증류로 돌아가서 에게는 "GPT-4o와 클로드 3.5 소네트는 모두 더 큰 모델에서 증류되었을 가능성이 높다고 생각합니다."라고 결론을 내립니다.
지금까지의 모든 단서는 OpenAI가 같은 방식(증류)으로, 같은 이유(낮은 결과/비용 관리)로 Anthropic 3.5에서 했던 일(훈련 및 숨기기)을 하고 있다는 것을 나타냅니다. 이것은 발견입니다. 하지만 중요한 것은 Opus 3.5 아직 OpenAI는 어디에 숨겨져 있나요? 회사 지하실에 숨겨져 있을까요? 감히 그 이름을 맞춰보세요...

IV. 선구자는 길을 열어야 합니다
저는 보다 투명한 정보를 제공하는 Anthropic의 Opus 3.5 이벤트를 살펴보면서 분석을 시작합니다. 그런 다음 증류의 개념을 OpenAI에 연결하여 Anthropic을 움직이는 동일한 근본적인 힘이 OpenAI에도 작용하지만, 선구자로서 OpenAI는 Anthropic이 아직 직면하지 않은 장애물에 직면할 수 있다는 새로운 장애물에 부딪힌다는 이론에 대해 설명합니다.
예를 들어, GPT-5 교육을 위한 하드웨어 요구 사항입니다. Sonnet 3.6은 GPT-4o와 비슷하지만 5개월 후에 출시되었습니다. GPT-5가 더 강력하고 규모가 크다는 점에서 더 높은 수준이라고 가정해야 합니다. 추론 비용뿐만 아니라 훈련 비용도 더 높습니다. 훈련 비용이 5억 달러에 달할 수도 있습니다. 기존 하드웨어로 이를 달성할 수 있을까요?
Ege는 다시 한 번 가능성을 열어가고 있습니다. 3억 명의 사용자에게 이러한 거대한 게임을 제공하는 것은 현실적이지 않지만, 훈련은 문제가 되지 않습니다:
원칙적으로 기존 하드웨어는 GPT-4보다 훨씬 큰 모델(예: GPT-4보다 50배 큰 100조 개의 파라미터 모델, 추론 비용 약 3,000달러/백만 개의 출력 토큰, 초당 10~20개의 토큰 출력 속도)을 지원하는 데 충분합니다. 그러나 이것이 실현 가능하려면 대규모 모델이 고객에게 상당한 경제적 가치를 창출해야 합니다.
하지만 OpenAI, DeepMind, Anthropic을 각각 소유한 Microsoft, Google, Amazon조차도 이런 종류의 추론을 감당할 수 없습니다. 수조 개의 파라메트릭 모델을 대중에게 공개하려면 "상당한 경제적 가치를 창출"해야 하기 때문입니다. 그래서 그들은 그렇지 않습니다.
모델을 훈련시켰습니다. "기존 제품보다 더 나은 성능"을 발견했습니다. 하지만 "계속 작동하는 데 드는 막대한 비용을 정당화할 만큼 충분히 개선되지는 않았다"는 사실을 인정해야 했습니다. (이 말이 익숙하게 들리시나요? 월스트리트 저널은 한 달 전 블룸버그의 Opus 3.5에 대한 보고서와 놀라울 정도로 유사한 용어로 GPT-5에 대해 보도했습니다.)
그들은 평범한 결과를 보고합니다(내러티브를 유연하게 조정할 수 있음). 내부적으로 교사 모델로 유지하여 학생 모델을 추출합니다. 그런 다음 후자를 공개합니다. 소네트 3.6과 GPT-4o, o1 등을 구입하고 저렴한 품질에 만족합니다. Opus 3.5와 GPT-5에 대한 기대는 점점 더 조급해지지만 그대로 유지됩니다. 그들의 금광은 계속 빛나고 있습니다.
V. 분명 더 많은 이유가 있겠죠, 알트만 씨!
V. 물론 더 많은 이유가 있겠죠, 알트만 씨!
조사를 여기까지 진행했지만 여전히 완전히 확신하지는 못했습니다. 모든 증거가 OpenAI가 전적으로 그럴듯하다는 것을 시사하는 것은 사실이지만, '그럴듯한' 또는 '그럴듯한'과 '실제' 사이에는 여전히 간극이 존재합니다. 제가 그 간극을 메우지는 않겠습니다. 결국 추측에 불과하기 때문입니다. 하지만 제 주장을 더욱 강화할 수는 있습니다.
OpenAI가 이런 식으로 운영되고 있다는 증거가 더 있나요? 성능 저하와 손실 증가 외에 GPT-5의 출시를 연기한 다른 이유가 더 있으며, GPT-5에 대한 OpenAI 경영진의 공개 성명에서 어떤 정보를 추출할 수 있을까요? 모델 출시를 반복적으로 연기함으로써 평판 손상의 위험을 감수하고 있는 것은 아닌가요? 결국 OpenAI는 AI 혁명의 얼굴이고 Anthropic은 그 그림자 속에서 운영되고 있습니다.Anthropic은 이러한 방식으로 운영할 여유가 있지만 OpenAI는 어떻습니까? 아마도 대가가 없는 것은 아닐 것입니다.
돈 얘기가 나와서 말인데, OpenAI와 Microsoft의 파트너십에 대한 몇 가지 관련 세부 사항을 살펴볼까요? 먼저, 잘 알려진 사실인 AGI 조항입니다. OpenAI의 구조에 대한 블로그 게시물에는 운영 방식, 비영리 단체와의 관계, 이사회와의 관계, Microsoft와의 관계를 정의하는 5가지 거버넌스 조항이 있습니다. 다섯 번째 조항은 AGI를 "대부분의 경제적으로 가치 있는 노력에서 인간을 능가할 수 있는 고도로 자율적인 시스템"으로 정의하고, OpenAI 이사회가 AGI의 구현을 선언하면 "이 시스템은 Microsoft와의 지적 재산 라이선스 및 기타 상업적 조건에서 제외되며, Microsoft 라이선스 및 기타 상업적 조건의 조건만 적용된다"고 명시하고 있습니다. Microsoft와의 기타 상업적 약관은 AGI 이전 기술에만 적용됩니다."
말할 필요도 없이, 두 회사 모두 파트너십이 깨지는 것을 원하지 않습니다. openAI는 조건을 설정하지만 이를 준수하지 않기 위해 최선을 다합니다. 이를 위한 한 가지 방법은 AGI로 분류될 수 있는 시스템의 출시를 늦추는 것입니다. "하지만 GPT-5는 확실히 AGI가 아닙니다."라고 여러분은 말할 것입니다. 그리고 여기에 거의 아무도 모르는 두 번째 사실이 있습니다. OpenAI와 Microsoft는 과학적 목적과는 무관하지만 법적으로 파트너십을 정의하는 AGI에 대한 비밀 정의를 가지고 있습니다: AGI는 "최소 1000억 달러의 수익을 창출할 수 있는 AI 시스템"입니다. AGI는 "최소 1,000억 달러의 수익을 창출할 수 있는 AI 시스템"입니다.
OpenAI가 GPT-5가 준비되지 않았다는 구실로 출시를 연기한다면, 비용 통제와 대중의 반발을 막는 것 외에 다른 목적을 달성할 수 있을 것입니다. 바로 AGI로 분류되는 기준치를 충족하는지 여부를 발표하지 않는 것입니다. 1,000억 달러는 엄청난 수치이지만, 야심 찬 고객들이 그 이상의 수익을 창출하는 것을 막을 수는 없습니다. 반면에 명확히 하자면, OpenAI가 GPT-5가 연간 1,000억 달러의 반복 수익을 창출할 것으로 예측한다면 AGI 조항을 발동하고 Microsoft와 결별해도 상관없을 것입니다.
OpenAI가 GPT-5를 출시하지 않는 것에 대한 대중의 반응은 대부분 충분하지 않아서 출시하지 않는다는 가정에 근거했습니다. 설사 이것이 사실이라고 해도, OpenAI가 외부 사용 사례보다 내부 사용 사례가 더 우수할 수 있다고 생각하는 회의론자는 없습니다. 훌륭한 모델을 만드는 것과 3억 명에게 저렴하게 서비스를 제공할 수 있는 훌륭한 모델을 만드는 것 사이에는 큰 차이가 있습니다. 할 수 없다면 하지 않을 것입니다. 하지만 다시 한 번 말씀드리자면 불필요한 그렇게 하지 않으면 하지 않을 것입니다. 예전에는 우리의 데이터가 필요했기 때문에 최고의 모델을 제공했습니다. 하지만 이제는 더 이상 그럴 필요가 없습니다. 그리고 그들은 더 이상 우리의 돈을 쫓지 않습니다. 그건 마이크로소프트의 사업이지 저희의 사업이 아닙니다. 그들은 AGI를 원하고, 그다음에는 ASI를 원합니다. 그들은 유산을 남기고 싶어 합니다.

VI. 이것이 모든 것을 바꾸는 이유
거의 막바지에 이르렀습니다. 저는 탄탄한 논지를 구축하기에 충분한 논거를 제시했다고 생각합니다. Anthropic이 Opus 3.5를 보유하고 있는 것처럼 OpenAI도 이미 GPT-5를 자체적으로 보유하고 있을 가능성이 매우 높습니다. 대중은 이제 GPT-4o나 클로드 소네트 3.6이 아닌 o1/o3으로 성능을 측정합니다. OpenAI가 테스트에서 확장 법칙을 탐구하고 있기 때문에 GPT-5를 위해 넘어야 할 장벽은 계속 높아질 것입니다. 특히 이렇게 빠른 속도로 출시하는 상황에서 어떻게 o1, o3, 그리고 곧 출시될 o 시리즈 모델보다 뛰어난 성능을 가진 GPT-5를 출시할 수 있을까요? 게다가 그들은 더 이상 우리의 돈이나 데이터가 필요하지 않습니다.
새로운 기본 모델(GPT-5, GPT-6 이상)을 학습하는 것은 OpenAI 내부적으로 항상 의미가 있었지만 반드시 제품화되지는 않았습니다. 이제 그런 일은 끝났습니다. 이제 그들에게 중요한 유일한 목표는 차세대 모델을 위해 더 나은 데이터를 계속 생성하는 것입니다. 이제부터는 기본 모델이 백그라운드에서 작동하여 다른 모델이 혼자서는 달성할 수 없는 업적을 달성할 수 있도록 지원할 수 있습니다. 마치 비밀 동굴에서 지혜를 전수하는 은둔의 노인처럼, 이 동굴은 거대한 데이터 센터일 뿐입니다. 우리가 그를 보든 보지 않든, 우리는 그의 지혜의 결과를 경험하게 될 것입니다.

결국 GPT-5가 출시되더라도 이 사실은 갑자기 거의 무의미해 보입니다. OpenAI와 Anthropic이 출시된다면 재귀적 자기 개선 작전(여전히 인간의 개입이 있긴 하지만)을 수행한다면 더 이상 공개적으로 무엇을 제공하는지는 중요하지 않을 것입니다. 우주가 너무 빠르게 팽창하여 먼 은하계의 빛이 더 이상 우리에게 도달할 수 없는 것처럼, 그들은 점점 더 멀리 나아갈 것입니다.
그래서인지 OpenAI는 불과 3개월 만에 o1에서 o3로 도약했습니다. 또한 이것이 그들이 o4와 o5로 도약하는 이유이기도 합니다. 그래서인지 최근 소셜 미디어를 뜨겁게 달구고 있습니다. 새롭고 개선된 운영 방식을 구현했기 때문입니다.
AGI에 가까워지면 점점 더 강력한 인공지능을 사용할 수 있게 될까요? 우리가 사용할 수 있도록 모든 발전된 기술을 공개할까요? 물론 믿지 않으실 겁니다. 그들이 처음 자신들의 모델이 다른 누구도 따라잡을 수 없을 정도로 발전할 것이라고 말했을 때는 진심이었습니다. 새로운 세대의 모델은 각각 탈출 속도의 엔진입니다. 성층권에서 그들은 작별 인사를 했습니다.
그들이 돌아올지는 아직 지켜봐야 합니다.
© 저작권 정책
기사 저작권 AI 공유 서클 모두 무단 복제하지 마세요.
관련 문서
댓글 없음...