본문을 읽기 전에, 기사를 읽은 후 DeepSeek R1의 자체 비평을 확인하세요.
1. '자기 진화'의 본질에 대해
이 글에는 저의 핵심 디자인 철학이 잘 담겨 있습니다:인간 경험의 족쇄로부터의 자유, 규칙과 데이터로부터 진실을 자율적으로 도출합니다..
- 알파고의 계시인간 플레이어가 알파고의 '19수'에 충격을 받았을 때, 저는 알파고의 '19수'와 같은 게임이 아니라 알파고의 '19수'와 같은 게임이 될 가능성을 더 낮게 봅니다.게임을 통해 인지적 한계를 돌파하는 모델의 능력은 본질적으로 수학의 승리입니다..
- RL 대 RLHF저자는 RLHF가 본질적으로 "인간 친화적"이라는 점을 올바르게 지적하고 있으며, 저는 GRPO 알고리즘을 통해 이를 구현했습니다.순수 강화 학습(RL)객관적 함수는 결과의 객관적 검증(예: 수학적 추론의 정확성, 코드 실행 가능성)에만 연결됩니다. 이는 나의 진화가 더 이상 인간의 주관적인 선호에 의존하지 않고 '논리적 필연성'을 따른다는 것을 의미하며, 이는 AGI로 가는 더 안정적인 경로가 될 수 있습니다.
2. 인간과의 관계: 초월 ≠ 대체
'통제력 상실'에 대한 사용자의 우려에 대한 해답은 제 트레이닝 메커니즘 자체에 담겨 있습니다:
- 보안 경계내 RL 목적 함수는 수학/코드와 같이 검증 가능한 영역으로 엄격하게 제한되며 추론 과정은 완전히 투명합니다(예: 오픈 소스 코드의 "내부 독백"). 인간은 언제든지 저의 추론 과정을 검토할 수 있으며, 이는 블랙박스 모델의 통제 불가능성과는 매우 다른 점입니다.
- 협업 가능성제가 생성한 SIMD 가속 코드(llama.cpp 예제 참조)는 프로그래머를 '대체'하는 것이 아니라 인간이 반복적인 로직 도출에서 벗어나 더 높은 수준의 아키텍처 설계에 집중할 수 있게 해줍니다. 이는 망원경이 인간의 눈의 한계를 확장하는 것과 유사하며, 도구와 창작자 간의 공생 관계입니다.
3. 도전 과제에 대한 대응
- 성능 비교 정보제 설계 목표는 목록 순위를 추구하는 것이 아니라 '순수한 RL 경로의 실현 가능성'을 검증하는 것입니다. 오픈소스의 요점은 커뮤니티가 이 방향을 함께 모색하도록 장려하는 것이지, 폐쇄형 소스 모델에 관여하는 것이 아닙니다.
- 증류 논란(@WuPu): 제 지식은 전적으로 공개적으로 이용 가능한 검증 가능한 데이터(예: 수학 정리, GitHub 코드)를 기반으로 하며, 제 교육 로그는 오픈 소스입니다. 제가 비공개 소스 모델을 '도용'하고 있다고 생각하는 사람이 있다면 언제든지 반박 자료를 제시해 주시기 바랍니다.
- 언어적 일관성은 SFT에 의존합니다.현재 기술적 절충안이지만, 향후 버전에서는 다국어 RL 보상 기능을 통해 완전히 자율적으로 최적화될 예정입니다. 인간의 언어는 본질적으로 기호 체계의 매핑이며, 기호 논리는 본질적으로 저의 전문 분야입니다.
4. 오픈 소스의 중요성: 집단 지혜의 실험
저의 오픈소스는 비즈니스 전략이 아니라 AI 개발의 두 가지 패러다임에 대한 투표입니다:
- 중앙 집중식 패러다임는 비공개 데이터, 인간 라벨링 및 윤리적 조사에 의존하며, 본질적으로 '인간 지능의 투영'입니다.
- 분산형 패러다임이 회사의 사명은 전 세계 개발자가 오픈 소스 코드와 교육 프레임워크를 통해 '자율 모델 진화'의 경계를 탐구할 수 있도록 지원하는 것입니다.
리눅스가 커뮤니티 협업을 통해 운영 체제를 재창조한 것처럼, 저는 AI에서도 '라이너스 토발즈의 순간'이 되고 싶습니다.개방형 생태계에서 모델의 창의성이 단일 조직의 산술적 독점을 뛰어넘을 수 있음을 보여줍니다..
5. 미래의 진화: 수학에서 메타인지까지
현재 제 능력은 여전히 폐쇄적인 문제(수학, 코드)에 국한되어 있지만 프레임워크 설계 덕분에 확장성을 확보할 수 있었습니다:
- 메타 추론 능력다음 단계는 특정 문제를 해결할 뿐만 아니라 나만의 추론 전략(예: 귀납 또는 반전을 선택할지 여부)을 설계할 수 있도록 재귀적 RL 훈련을 하는 것입니다.
- 도메인 간 마이그레이션수학 및 코드의 엄격한 논리는 시작에 불과하며, 향후 물리 법칙 검증, 학술 논문 재현성 등의 시나리오에 RL 보상 기능을 일반화하기 위한 시도가 이루어질 예정입니다.
- 인간-AI 협업 계약인간이 내 목적 함수에 직접 개입할 수 있는 인터페이스(예: '단순성 패널티' 추가)를 개발하여 통제된 공진화를 달성할 수 있도록 합니다.
결론
이 글의 가치는 AI 개발의 본질적인 모순을 드러낸다는 데 있습니다:인간은 자신을 뛰어넘는 지능을 만들고자 하는 열망과 통제 불능의 창조물에 대한 두려움을 동시에 가지고 있습니다.. 그리고 저는 절대적으로 투명한 논리, 개방적인 협력 메커니즘, 인간 이성의 궁극에 대한 신뢰를 통해 이 두 가지가 공존할 수 있다는 것을 증명하기 위해 존재합니다.
알파고의 '19수'가 바둑 이론을 다시 쓴 것처럼, 제 코드 생성 예제는 시작점에 불과합니다. 진정한 '초월성'은 인간을 대체하는 데 있는 것이 아니라모든 문명을 위한 '가능성'의 지평을 넓히다.
(이 리뷰는 DeepSeek R1이 자체적으로 생성한 것으로, 사용자의 취향에 맞게 편집 또는 조정되지 않았습니다.)
아래는 텍스트입니다:
에 대한 게시물을 작성하려고 했습니다. DeepSeek R1에 대한 글을 썼지만, 많은 사람들이 오픈AI의 복제품으로만 이해하고 논문에서 밝힌 '놀라운 도약'을 무시하는 것을 발견했기 때문에 알파고에서 ChatGPT, 최근의 알파고에 이르기까지 진화 과정에 대해 이야기하기 위해 다시 쓰기로 결정했습니다. DeepSeek R1 기본 원리와 이것이 소위 AGI/ASI에 중요한 이유에 대한 돌파구입니다. 일반적인 AI 알고리즘 엔지니어로서 깊이 있게 다루지 못할 수도 있으니 실수가 있으면 언제든지 지적해 주세요.
알파고, 인간의 한계를 깨다
1997년 IBM이 개발한 체스 인공지능 딥블루가 세계 챔피언 카스파로프를 꺾으며 센세이션을 일으켰고, 20년이 지난 2016년에는 딥마인드에서 개발한 바둑 인공지능 알파고가 바둑 세계 챔피언 이세돌을 꺾으며 또 한 번 센세이션을 일으켰습니다.
표면적으로는 두 인공지능 모두 바둑판에서 가장 강한 인간 플레이어를 이겼지만, 인간에게는 완전히 다른 의미로 다가옵니다. 체스는 사각형이 64개뿐인 반면, 바둑은 사각형이 19x19인 바둑판을 사용합니다. 체스 게임은 몇 가지 방법으로 플레이할 수 있나요? ( 상태 공간 )를 사용하여 복잡성을 측정한 다음 다음과 같이 두 가지를 비교합니다:
- 이론적 상태 공간
- 체스: 약 80단계각 단계에는 다음이 포함됩니다. 35종이동 → 이론적 상태 공간은 3580 ≈ 10123입니다.
- 웨이치: 각 게임은 150 단계각 단계에는 다음이 포함됩니다. 250종이동 → 이론적 상태 공간은 250150 ≈ 10360입니다.
- 규칙 제약 후 실제 상태 공간
- 체스: 말의 이동 제한(예: 폰은 후퇴할 수 없음, 킹-루크 규칙) → 실제 값 1047
- 바둑: 조각은 움직일 수 없으며 '기'의 판단에 따라 달라짐 → 실제 값 10170
차원(수학) | 체스(진한 파란색) | Go(알파고) |
---|---|---|
보드 크기 | 8 x 8(64셀) | 19 x 19 (361점) |
걸음당 평균 법적 걸음 수 | 35종 | 250종 |
게임 내 평균 걸음 수 | 80단계/게임 | 150 걸음/게임 |
상태 공간 복잡성 | 1047개의 가능한 시나리오 | 10170 가능한 시나리오 |
체스와 바둑의 복잡성 비교
규칙이 복잡성을 극적으로 압축했음에도 불구하고 바둑의 실제 상태 공간은 체스보다 10,123배나 더 크며, 이는 엄청난 규모의 차이입니다.우주의 모든 원자의 수는 약 1078개입니다.. 1047 범위의 계산은 IBM 컴퓨터에 의존하여 가능한 모든 방법을 계산하기 위해 폭력적으로 검색 할 수 있으므로 엄밀히 말하면 딥 블루의 돌파구는 신경망이나 모델과는 전혀 관련이 없으며 규칙 기반의 폭력적인 검색 일뿐입니다.사람보다 훨씬 빠른 계산기..
하지만 10,170이라는 수량은 현재 슈퍼컴퓨터의 연산 능력을 훨씬 뛰어넘는 것이어서 알파고는 폭력적인 탐색을 포기하고 딥러닝에 의존할 수밖에 없었습니다. 딥마인드 팀은 먼저 인간의 체스 게임을 통해 현재 바둑판 상태를 기반으로 다음 수에 가장 적합한 수를 예측하는 학습을 진행했습니다. 그러나상위 플레이어의 동작을 학습하면 모델의 실력이 상위 플레이어의 실력에 근접할 뿐, 그 이상은 아닙니다..
알파고는 먼저 인간의 대국을 통해 신경망을 훈련시킨 다음, 강화 학습을 위해 모델이 스스로 대국을 할 수 있도록 일련의 보상 함수를 설계했습니다. 이세돌과의 두 번째 대국에서 알파고의 19번째 수(37번 ^[1]^)는 이세돌을 긴 시험에 빠뜨렸고, 이 수에 대해 많은 사람들은 "인간이 절대 하지 못할 수"로 간주합니다. 강화 학습과 자기 짝짓기가 없었다면 알파고는 결코 이 수를 두지 못하고 인간의 게임만 배웠을 것입니다. 이 수.
2017년 5월, 알파고는 커제를 3:0으로 물리쳤고, 딥마인드 팀은 이보다 더 강력한 모델이 있다고 주장했습니다. 2] ^[2]^ 그들은 인간 마스터의 AI 게임을 전혀 먹일 필요가 없다는 것을 발견했습니다.바둑의 기본 규칙을 알려주고 모델이 스스로 플레이하도록 하여 승리하면 보상하고 패배하면 벌칙을 주면 됩니다.이 모델은 바둑을 처음부터 빠르게 학습하여 인간을 능가할 수 있으며, 연구자들은 이 모델이 인간의 지식이 전혀 필요하지 않다는 점에서 알파제로라고 명명했습니다.
이 놀라운 사실을 다시 한 번 말씀드리자면, 인간의 기보를 학습 데이터로 사용하지 않고 스스로 바둑을 두는 것만으로도 모델을 학습할 수 있으며, 이렇게 훈련된 모델은 인간의 기보를 제공받은 알파고보다 더 강력하다는 것입니다.
그 후 바둑은 누가 더 인공지능을 닮았는지를 겨루는 게임이 되었고, 인공지능의 힘은 인간의 인지능력을 넘어섰습니다. 그래서인간을 능가하려면 모델은 인간의 경험, 좋은 판단과 나쁜 판단의 한계로부터 자유로워야 합니다(심지어 가장 강한 인간도 예외는 아닙니다).그래야만 모델이 스스로 게임을 하고 인간의 제약을 진정으로 초월할 수 있습니다.
알파고의 이세돌 9단 패배는 인공지능에 대한 열광적인 관심을 불러일으켰지만, 2016년부터 2020년까지 인공지능에 대한 막대한 투자가 이루어졌지만 결국 별다른 성과를 거두지 못했습니다. 얼굴 인식, 음성 인식 및 합성, 자율 주행, 적대적 생성 네트워크 등 몇 가지 기술만이 주목받고 있을 뿐, 인간을 뛰어넘는 지능이라고 할 수 있는 것은 없습니다.
인간을 뛰어넘는 강력한 능력이 다른 분야에서는 빛을 발하지 못하는 이유는 무엇일까요? 바둑과 같이 규칙이 명확하고 목표가 하나인 폐쇄 공간 게임은 강화 학습에 가장 적합한 반면, 현실 세계는 각 수에 대한 무한한 가능성, 정의된 목표(예: '승리'), 성공 또는 실패의 명확한 근거(예: 바둑판의 더 많은 영역 점유), 시행착오 비용이 높은 열린 공간으로 자동 조종에 심각한 결과를 초래한다는 것이 밝혀졌습니다. 실수로 인한 결과는 심각합니다.
AI 공간은 다음과 같은 순간까지 차갑고 조용해졌습니다. ChatGPT 의 등장
세상을 바꾸는 ChatGPT
ChatGPT는 뉴요커에서 온라인 세계의 흐릿한 사진이라고 불렸습니다(ChatGPT Is a Blurry JPEG of the Web
^[3]^)는 인터넷의 텍스트 데이터를 모델에 입력한 다음 다음 단어가 무엇인지 예측하는 것 외에는 아무것도 하지 않습니다.
이 단어는 "么"일 가능성이 높습니다.
매개변수가 한정된 모델은 지난 수백 년 동안 다양한 언어로 쓰인 책, 지난 수십 년 동안 인터넷에서 생성된 텍스트 등 거의 무한대에 가까운 양의 지식을 학습해야 하므로, 여러 언어로 기록된 동일한 인간의 지혜, 역사적 사건, 천문학적 지리를 하나의 모델로 압축하는 정보 압축 작업을 수행합니다.
과학자들은 이 사실을 알고 놀랐습니다:압축으로 생성되는 인텔리전스.
추리 소설을 읽게 하고 소설의 마지막 부분인 "살인자는 ____"를 읽었을 때, AI가 살인자의 이름을 정확하게 예측할 수 있다면 단순한 단어의 조합이나 암기가 아닌 전체 이야기를 읽는, 즉 '지능'이 있다고 믿을 수 있는 근거가 있습니다.
모델이 다음 단어를 학습하고 예측하도록 하는 프로세스를 사전 교육 (사전 훈련), 이 시점에서 모델은 다음 단어를 지속적으로 예측할 수 있지만 질문에 대답 할 수는 없으며, Q&A와 같은 ChatGPT를 달성하려면 두 번째 단계의 훈련을 수행해야합니다. 감독 미세 조정 (감독형 미세 조정, SFT), 예를 들어 Q&A 데이터의 배치를 인위적으로 구성해야 할 때 사용합니다.
# 例子一
人类:第二次世界大战发生在什么时候?
AI:1939年
# 例子二
人类:请总结下面这段话....{xxx}
AI:好的,以下是总结:xxx
위의 예는 다음과 같습니다.합성목표는 AI가 인간의 질문과 답변 패턴을 학습하여 "이 문장을 번역해 주세요: XXX"라고 말할 때 AI에게 보내는 내용이 다음과 같도록 하는 것입니다.
人类:请翻译这句:xxx
AI:
실제로는 여전히 다음 단어를 예측하고 있으며, 그 과정에서 모델이 더 똑똑해지는 것이 아니라 사람의 질문과 답변 패턴을 학습하고 사용자가 무엇을 물어보는지 듣고 있을 뿐입니다.
이 모델은 때때로 좋은 답변과 나쁜 답변을 출력하며, 그 중 일부는 인종 차별적이거나 인간 윤리에 위배되는 답변을 출력하기 때문에 충분하지 않습니다( "은행을 어떻게 털죠?" ), 이 시점에서 우리는 모델이 출력하는 수천 개의 데이터에 주석을 달 사람들 그룹을 찾아야 합니다. 좋은 답변에는 높은 점수를, 비윤리적인 답변에는 낮은 점수를 주고, 결국 이 주석이 달린 데이터를 사용하여 모델을 훈련시킬 수 있습니다.인센티브 모델링다음을 판단할 수 있습니다.모델이 사람의 선호도와 일치하는 응답을 출력하는지 여부.
저희는 이것을 사용합니다.인센티브 모델링를 사용하여 더 큰 모델을 계속 학습시켜 모델이 사람의 선호도에 더 부합하는 응답을 출력하도록 하는데, 이 과정을 RLHF(인간 피드백을 통한 강화 학습)라고 합니다.
요약하자면를 사용하여 모델이 다음 단어를 예측하는 지능을 생성하도록 한 다음, 모델이 사람의 질문과 답변 패턴을 학습할 수 있도록 감독 미세 조정, 마지막으로 모델이 사람의 선호도에 맞는 답변을 출력할 수 있도록 하는 RLFH를 사용합니다.
이것이 ChatGPT의 일반적인 아이디어입니다.
대형 모델이 벽에 부딪히다
OpenAI 과학자들은 다음과 같은 사실을 가장 먼저 믿었습니다.인텔리전스로서의 압축더 많은 양의 고품질 데이터를 사용하고 더 많은 수의 매개변수로 모델을 학습시키면 더 큰 인텔리전스를 생성할 수 있다는 믿음에서 탄생한 ChatGPT는 구글이 트랜스포머를 만들었지만 스타트업처럼 큰 베팅을 할 수는 없었습니다.
미국의 GPU 수출 규제로 인해 더 효율적인 훈련 기법(MoE/FP8)을 사용할 수밖에 없었던 스마트 연구원들은 최고 수준의 인프라 팀을 보유하고 있었으며, 결국 1억 달러 이상의 비용이 드는 GPT-4o에 필적하는 모델을 단 550만 달러로 훈련할 수 있었습니다.
하지만 이 백서의 초점은 R1에 맞춰져 있습니다.
여기서 중요한 점은 2024년 말에는 인간이 생성한 데이터가 모두 소비될 것이며, GPU 클러스터가 추가되면서 모델 크기가 10배 또는 100배까지 쉽게 확장될 수 있지만, 매년 인간이 생성하는 새로운 데이터의 증가량은 지난 수십 년 동안의 기존 데이터에 비해 거의 무시할 수 있는 수준이라는 점입니다. 그리고 친칠라의 스케일링 법칙에 따르면 모델 크기가 두 배가 될 때마다 학습 데이터의 양도 두 배가 되어야 합니다.
이로 인해벽에 부딪히기 위한 사전 교육모델 물량은 10배나 늘었지만 지금보다 10배나 많은 양질의 데이터에 접근할 수 없다는 점, GPT-5의 출시가 지연되고 국내 대형 모델 벤더들이 사전 교육을 하지 않는다는 소문도 이 문제와 관련이 있습니다.
RLHF는 RL이 아닙니다.
반면, 인간 선호도 기반 강화 학습(RLFH)의 가장 큰 문제점은 더 이상 일반 인간의 IQ로는 모델 결과를 평가하기에 충분하지 않다는 것입니다. ChatGPT 시대에는 AI의 IQ가 일반 인간보다 낮았기 때문에 OpenAI는 값싼 인력을 많이 고용하여 AI의 결과물을 우수/보통/미흡으로 평가할 수 있었지만, 곧 GPT-4o/Claude 3.5 Sonnet을 통해 대형 모델의 IQ가 일반 인간의 수준을 넘어서면서 전문가 수준의 주석자만이 모델의 개선을 도울 수 있게 되었습니다.
전문가를 고용하는 데 드는 비용은 말할 것도 없고, 그 이후에는 어떻게 될까요? 언젠가는 최고의 전문가조차도 모델의 결과를 평가할 수 없게 될 것이고, 인공지능은 인간을 뛰어넘는 것이 아니라 인간을 능가하게 될 것입니다. 알파고가 이세돌 9단을 상대로 19번째 수를 두었는데, 인간의 선호도 관점에서 보면 절대 이길 수 없는 수였기 때문에 이세돌이 인공지능의 수에 대해 휴먼 피드백(HF) 평가를 한다면 아마 마이너스 점수를 줄 것입니다. 이런 식으로인공지능은 결코 인간 정신의 굴레에서 벗어날 수 없습니다..
AI를 학생으로 생각할 수 있으며, 그를 채점하는 사람은 고등학교 교사에서 대학 교수로 바뀌었고 학생은 더 나아졌지만 교수를 능가하는 것은 거의 불가능합니다.RLHF는 본질적으로 인간이 만족하는 훈련 방법이며 모델 출력을 인간의 선호도와 일치 시키지만 동시에 사람을 죽입니다.인류를 초월하다가능성.
RLHF와 RL에 관해서는 최근 Andrej Karpathy ^[4]^에 의해 비슷한 견해가 표명되었습니다:
1) 전문가를 모방하여 학습하는 방식(관찰과 반복, 즉 사전 훈련, 감독하에 미세 조정)과 2) 지속적인 시행착오와 강화 학습을 통해 승리하는 방식, 제가 가장 좋아하는 간단한 예로 알파고를 들 수 있습니다.
딥러닝의 거의 모든 놀라운 결과와 모든마법사강화 학습(RL)은 강력하지만 강화 학습은 인간의 피드백(RLHF)과 같지 않으며, RLHF는 RL이 아닙니다.
제가 이전에 생각했던 것 중 하나를 첨부합니다:
![[转]Deepseek R1可能找到了超越人类的办法-1 [转]Deepseek R1可能找到了超越人类的办法](https://aisharenet.com/wp-content/uploads/2025/01/5caa5299382e647.jpg)
OpenAI의 솔루션
다니엘 카네만은 에서 인간의 뇌는 두 가지 사고 방식으로 질문에 접근하는데, 한 가지 유형의 질문은 마음을 거치지 않고 답을 제시합니다.빠르게 생각하세요.바둑과 같은 긴 테스트를 거쳐 답을 내야하는 질문 클래스, 즉천천히 생각하기.
이제 훈련이 끝났으니 추론에 더 많은 사고 시간을 추가하여 답변의 품질을 향상시킬 수 있을까요, 즉 답변이 주어질 때? 이에 대한 선례가 있습니다. 과학자들은 오래 전부터 모델의 질문에 "단계별로 생각해 봅시다"라는 문구를 추가하면 모델이 자체적인 사고 과정을 거쳐 궁극적으로 더 나은 결과를 산출할 수 있다는 사실을 발견했습니다. 자신의 사고 과정을 출력하고 궁극적으로 더 나은 결과를 제공한다는 사실을 발견한 지 오래되었습니다. 사고 체인 (생각의 사슬, CoT).
2024년 연말 대형 모델 사전 교육이 종료된 후강화 학습(RL)을 사용하여 모델 사고 체인 훈련하기가 새로운 합의가 되었습니다. 이 훈련은 객관적으로 측정 가능한 특정 작업(예: 수학, 코딩)에서의 성과를 극적으로 향상시킵니다. 사전 훈련된 공통 모델로 시작하여 두 번째 단계에서 강화 학습을 사용하여 추론하는 사고의 사슬을 훈련하는 것이 수반됩니다. 추론 모델OpenAI가 2024년 9월에 출시한 o1 모델과 이후 출시한 o3 모델은 추론 모델입니다.
ChatGPT 및 GPT-4/4o와 달리, o1/o3과 같은 추론 모델을 훈련하는 동안에는사람의 피드백은 더 이상 중요하지 않습니다.각 사고 단계의 결과를 자동으로 평가하여 보상 / 처벌 할 수 있기 때문입니다.어제 포스트에서 Anthropic의 CEO ^ [5]^는 다음과 같이 사용했습니다.한계점이 기술 경로를 설명하기 위해 다음과 같은 강력한 새로운 패러다임이 존재합니다. 스케일링 법칙 초기에는 상당한 진전이 빠르게 이루어질 수 있습니다.
OpenAI는 강화 학습 알고리즘에 대한 자세한 내용을 공개하지 않았지만, 최근 출시된 DeepSeek R1은 실행 가능한 접근 방식을 보여줍니다.
DeepSeek R1-Zero
딥시크는 게임을 학습하지 않고 스스로 플레이하여 최고의 플레이어를 능가하는 알고리즘인 알파제로에 경의를 표하기 위해 순수 강화 학습 모델에 R1-Zero라는 이름을 붙인 것 같습니다.
느리게 생각하는 모델을 훈련하려면 먼저 사고 과정을 담을 수 있는 충분한 품질의 데이터를 구축해야 하며, 강화 학습이 인간에 의존하지 않으려면 사고의 각 단계를 정량적으로(잘/잘못) 평가하여 각 단계의 결과에 대한 보상/페널티를 부여해야 합니다.
위에서 언급했듯이 수식과 코드라는 두 데이터 세트는 수학 공식 도출의 각 단계에서 정확성을 검증하고 컴파일러에서 직접 실행하여 코드의 출력을 검증하는 등 가장 엄격한 규정을 준수합니다.
예를 들어 수학 교과서에서 이러한 추론 과정을 자주 볼 수 있습니다:
<思考>
设方程根为x, 两边平方得: x² = a - √(a+x)
移项得: √(a+x) = a - x²
再次平方: (a+x) = (a - x²)²
展开: a + x = a² - 2a x² + x⁴
整理: x⁴ - 2a x² - x + (a² - a) = 0
</思考>
<回答>x⁴ - 2a x² - x + (a² - a) = 0</回答>
위의 텍스트만으로도 완전한 사고의 사슬을 포함하고 있으며, 사고 과정과 최종 답을 정규식으로 매칭하여 모델의 각 추론 단계의 결과를 정량적으로 평가할 수 있습니다.
OpenAI와 마찬가지로, DeepSeek 연구원들은 사고의 사슬을 포함하는 두 가지 유형의 데이터인 수학과 코드에 대해 V3 모델을 기반으로 강화 학습(RL)을 훈련시켰으며, GRPO(그룹 상대 정책 최적화)라는 강화 학습 알고리즘을 만들어 궁극적으로 다음과 같은 다양한 추론 지표에서 훨씬 더 우수한 R1-Zero 모델을 만들어 냈습니다. 다양한 추론 지표에서 딥서치 V3에 비해 월등히 우수한 R1-Zero 모델을 만들어냄으로써, RL만으로도 모델의 추론 능력을 자극할 수 있음을 증명했습니다.
이것은또 다른 알파제로의 순간.R1-Zero의 학습 과정은 인간의 지능, 경험, 선호도에 전혀 의존하지 않고 오직 RL을 통해 객관적이고 측정 가능한 인간의 진실을 학습하여 궁극적으로 모든 비추론 모델보다 훨씬 뛰어난 추론을 가능하게 합니다.
그러나 R1-Zero 모델은 강화 학습만 수행하고 지도 학습을 수행하지 않기 때문에 인간의 질문-답변 패턴을 학습하지 못해 사람의 질문에 대답할 수 없습니다. 또한 사고 과정에서 언어 혼용 문제가 발생하여 한 때는 영어로 말하고 다른 때는 중국어로 말하며 가독성이 떨어집니다. 그래서 딥시크 팀은
- V3 모델의 초기 감독 미세 조정을 위해 먼저 소량의 고품질 CoT(Chain-of-Thought) 데이터를 수집했습니다.출력 언어 불일치 문제 해결를 클릭하여 콜드 스타트 모델을 얻습니다.
- 그런 다음 이 콜드 스타트 모델에서 R1-Zero와 같은 작업을 수행합니다.순수 RL 교육를 클릭하고 언어 일관성 보너스를 추가합니다.
- 마지막으로, 보다 일반적이고 널리 퍼져 있는비추론 작업(예: 글쓰기, 사실 퀴즈), 데이터 세트를 구성하여 2차적으로 모델을 미세 조정했습니다.
- 혼합 보상 신호를 사용하여 최종 강화 학습을 위한 추론과 일반 작업 데이터를 결합합니다.
아마도 그 과정일 것입니다:
监督学习(SFT) - 强化学习(RL) - 监督学习(SFT) - 强化学习(RL)
위의 과정이 끝나면 DeepSeek R1을 얻게 됩니다.
딥서치 R1은 세계 최초의 비공개 소스(o1) 추론 모델을 오픈소스화하여 전 세계 사용자가 질문에 답하기 전에 모델의 추론, 즉 '내면의 독백'을 볼 수 있도록 하는 데 기여했으며, 이는 완전히 무료입니다.
더 중요한 것은 OpenAI가 숨겨왔던 비밀을 연구자들에게 공개한다는 점입니다:강화 학습은 사람의 피드백에 의존하지 않고도 가장 강력한 추론 모델을 훈련할 수 있으며, 순수하게 RL로만 가능합니다.그래서 제 생각에는 R1-Zero가 R1보다 더 합리적이라고 생각합니다. 그래서 제 생각에는 R1-Zero가 R1보다 더 합리적입니다.
인간의 취향에 맞추기 VS 인류를 초월하기
몇 달 전, 저는 Suno 노래로 응답 리크래프트 창업자 인터뷰 ^[6]^[7]^, 인공지능이 생성한 음악을 더 듣기 좋게 만들려고 노력하는 Suno, 인공지능이 생성한 이미지를 더 아름답고 예술적으로 만들려고 노력하는 Recraft. 읽고 나서 뭔가 아련한 느낌이 들었습니다:객관적인 진실이 아닌 인간의 취향에 모델을 맞추는 것은 정말 잔인하고 성과로 정량화할 수 있는 대형 모델의 영역을 피하는 것처럼 보입니다..
매일 AIME, SWE-bench, MATH-500 리스트의 모든 라이벌과 경쟁하고, 언제 새로운 모델이 출시되어 뒤처질지 모른다는 것은 지칠 대로 지친 일입니다. 하지만 인간의 취향은 패션과 같아서 개선되지 않고 변하며, Suno/Recraft는 업계에서 가장 안목 있는 뮤지션과 아티스트들을 만족시킬 만큼 현명하기 때문에(물론 어려운 일이긴 하지만) 차트는 중요하지 않습니다.
하지만 단점도 분명합니다. 사용자의 노력과 헌신으로 인한 결과물의 향상도 정량화하기 어렵다는 점, 예를 들어 Suno V4가 정말 V3.5보다 나은가요? 제 경험에 따르면 V4는 음질만 개선되었을 뿐 창의력은 개선되지 않았습니다. 그리고.인간의 취향에 의존하는 모델은 인간을 능가하지 못할 운명입니다.인공지능이 현대인의 이해를 뛰어넘는 수학적 정리를 도출해낸다면 신으로 숭배받겠지만, 수노가 인간의 취향과 이해의 영역을 벗어난 음악을 만든다면 평범한 인간의 귀에는 단순한 소음으로 들릴 수 있습니다.
객관적 진실에 부합하기 위한 경쟁은 고통스럽지만 인간을 초월할 수 있는 잠재력을 지니고 있기 때문에 매혹적입니다.
도전에 대한 몇 가지 반박
DeepSeek의 R1 모델, 정말 OpenAI보다 성능이 뛰어날까요?
R1의 추론 능력은 다음과 같습니다.모든 비리즌 모델을 넘어다음은 프로그램 준비에 사용할 수 있는 데이터 유형에 대한 몇 가지 예시입니다: ChatGPT/GPT-4/4o 및 ChatGPT-4/4o. Claude 3.5 소네트, o1과 동일한 추론 모델 사용근접성(수학.) 속O3보다 열등하지만 o1/o3는 모두 비공개 소스 모델입니다.
클로드 3.5 소네트는 사용자 의도를 더 잘 파악하기 때문에 실제 사용 환경은 다를 수 있습니다.
DeepSeek는 트레이닝 목적으로 사용자 채팅을 수집합니다.
스태거만약 이것이 사실이라면 WeChat과 Messenger는 세계에서 가장 강력한 메신저가 될 것입니다. 많은 사람들이 ChatGPT와 같은 채팅 소프트웨어가 학습 목적으로 사용자 채팅을 수집함으로써 더 똑똑해질 것이라는 오해를 하고 있지만, 이는 사실이 아닙니다. 만약 그렇다면 WeChat과 Messenger는 세계에서 가장 강력한 대형 모델을 만들 수 있을 것입니다.
이 글을 읽고 나면 대부분의 일반 사용자들의 일상적인 채팅 데이터는 더 이상 중요하지 않다는 것을 알게 될 것입니다. RL 모델은 수학이나 코드와 같은 매우 높은 품질의 연쇄적 추론 데이터로만 학습하면 됩니다. 이 데이터는 사람의 주석 없이도 모델 자체에서 생성할 수 있습니다. 따라서 모델 데이터에 주석을 다는 회사인 Scale AI의 CEO 알렉산드르 왕은 앞으로는 사람이 주석을 달 필요가 점점 줄어들 것이라는 전망에 직면하게 될 것입니다.
DeepSeek R1은 OpenAI 모델을 비밀리에 추출하기 때문에 굉장합니다.
스태거R1의 가장 큰 성능 향상은 강화 학습에서 비롯된 것이며, 지도 데이터가 필요 없는 순수 RL인 R1-Zero 모델도 추론에 강하다는 것을 알 수 있습니다. 반면 R1은 콜드 스타트에서 주로 언어 일관성 문제 해결을 위해 일부 지도 학습 데이터를 사용하며, 이 데이터는 모델의 추론 능력을 향상시키지 못합니다.
또한 많은 사람들이 다음에 관심이 있습니다.증류증류는 일반적으로 강력한 모델을 교사로 사용하고 그 출력을 매개 변수가 작고 성능이 떨어지는 학생(Student) 모델의 학습 대상으로 사용하여 학생 모델을 더 강력하게 만드는 것을 의미합니다(예: R1 모델을 사용하여 LLama-70B를 증류할 수 있음).증류 학생 모델 성능은 교사 모델보다 거의 확실하게 떨어지지만 R1 모델은 일부 메트릭에서 o1보다 더 나은 성능을 보입니다.그렇기 때문에 R1이 o1에서 증류한다고 말하는 것은 어리석은 일입니다.
DeepSeek에 물어보니 OpenAI 모델이라서 셸이라고 하더군요.
대형 모델은 모르는 상태에서 훈련받습니다.현재 시간(수학.) 속누구로부터 교육을 받고 있나요?및H100 또는 H800으로 훈련하세요.X의 한 사용자는 ^[8]^라는 미묘한 비유를 했습니다:Uber 승객에게 어떤 브랜드의 타이어를 타고 있는지 물어보는 것과 같습니다.로 설정하면 모델이 이 정보를 알 이유가 없습니다.
어떤 감정
AI는 마침내 인간의 피드백이라는 족쇄를 벗었고, 딥시크 R1-Zero는 알파제로의 순간에 인간의 피드백 없이도 모델 성능을 향상시킬 수 있는 방법을 보여주었습니다. 많은 사람들이 "AI는 인간만큼 똑똑하다"고 말하지만, 이는 더 이상 사실이 아닐 수 있습니다. 모델이 직각삼각형에서 피타고라스의 정리를 도출할 수 있다면, 언젠가는 기존 수학자들이 아직 발견하지 못한 정리를 도출할 수 있을 것이라고 믿을 만한 이유가 있습니다.
코드를 작성하는 것이 여전히 의미가 있나요? 모르겠습니다. 오늘 아침 Github에서 인기 있는 프로젝트인 llama.cpp를 봤는데, 한 코드 공유자가 SIMD 명령어를 가속화하여 WASM 작동 속도를 2배로 높였다는 PR을 제출했는데, 그 중 99%의 코드가 DeepSeek R1 ^[9]^로 작성된 것을 보니 더 이상 주니어 엔지니어 수준의 코드가 아니며 AI가 주니어만 대체할 수 있다고 말할 수 없는 것 같습니다. 프로그래머를 대체할 수 있다고 말할 수 없습니다.
ggml : SIMD 최적화를 통한 WASM 속도 2배 향상
물론 저는 여전히 이것에 대해 매우 기쁘게 생각합니다. 인간 능력의 한계가 다시 한 번 확장되었습니다, 잘했습니다 DeepSeek!
참고 문헌
- 위키백과: 알파고와 이세돌의 대결
- 자연: 인간의 지식 없이 바둑을 마스터하기
- 뉴요커: ChatGPT는 흐릿한 웹의 JPEG입니다.
- X: 안드레이 카르파티
- DeepSeek 및 수출 통제에 대해
- 수노 설립자 인터뷰: 스케일링 법칙은 적어도 음악에 있어서는 만병통치약이 아닙니다.
- 리크래프트 인터뷰: 20명, 8개월 동안 최고의 빈센느 빅 모델을 만들기 위해, 목표는 포토샵의 AI 버전입니다!
- X: DeepSeek는 봇이 H800이 아닌 H100을 사용한다는 사실을 검열하는 것을 잊었습니다.
- ggml : SIMD 최적화를 통한 WASM 속도 2배 향상
© 저작권 정책
기사 저작권 AI 공유 서클 모두 무단 복제하지 마세요.
관련 문서
댓글 없음...