Microsoft Azure+Copilot+AI PC 제품, DeepSeek R1 모델 완벽 지원

AI 뉴스6개월 전 업데이트 AI 공유 서클
2.1K 00

2025년 1월 30일, Microsoft는 이제 일반 개발자를 위한 Azure 클라우드 컴퓨팅 플랫폼과 GitHub 도구에서 DeepSeek의 R1 모델을 사용할 수 있다고 발표했습니다. Microsoft는 또한 고객이 곧 다음에서 DeepSeek의 R1 모델을 사용할 수 있게 될 것이라고 말했습니다. 부조종사 + PC에서 로컬로 R1 모델을 실행합니다.

微软 Azure+Copilot+AI PC 产品全线支持 DeepSeek R1 模型

앞서 언급했듯이 코파일럿은 점차 OpenAI 외에 다른 대형 모델을 사용할 예정입니다:

Microsoft는 최근 뉴스에 자주 등장하고 있으며, 가장 주목할 만한 항목 중 하나는GitHub의 코파일럿은 무료로 개방되어 있습니다!는 비록 적은 수(코드 완성의 경우 월 2,000건, 채팅 대화는 월 50건)이지만 적어도 획기적인 이벤트이며, 기존의 단일 GPT 4o에서 o1로 모델이 확장되었습니다. Claude 노래로 응답 쌍둥이자리 및 기타 여러 모델.

이것이 의미하는 바는 Microsoft가 이제 어떤 면에서 더 이상 최고의 단일 모델이 아니며 운영 비용도 가장 효율적이지 않은 OpenAI 기술에 대한 의존에서 벗어나고 있다는 것입니다.

최근 deepseek 세계에서 더 강력한 영향력을 가진 일련의 눈길을 끄는 새로운 기능이 계속해서 온라인에 등장하지만 AI 분야에서 중국과 미국 간의 생사를 건 경쟁을 일으켰으며, Microsoft는 코파일럿이 중국어를 더 잘 지원하도록하기 위해 코파일럿에서 딥시크의 R1 모델을 사용할 준비를했습니다.

Microsoft의 CEO 인디언은 또한 통화에서 현재 Microsoft의 AI 플랫폼인 Azure AI Foundry와 GitHub를 통해 DeepSeek R1 모델을 사용할 수 있으며 곧 Copilot+ 컴퓨터에서 실행할 수 있게 될 것이라고 강조했습니다. 나델라는 딥시크에 "몇 가지 진정한 혁신이 있다"고 말하며, "사전 학습 및 추론 시간 계산에서 스케일링 법칙이 적용되면서 AI 비용이 감소하는 추세에 있다고 말했습니다. 지난 몇 년 동안 AI 학습과 추론의 효율성이 크게 향상되었습니다. 추론 측면에서는 일반적으로 하드웨어 세대당 가격 대비 성능이 2배 이상, 모델 세대당 가격 대비 성능이 10배 이상 향상되는 것을 볼 수 있습니다."

저희는 이를 기쁘게 생각합니다.

Microsoft 365용 코파일럿은 Office 365(워드, 엑셀, ppt, OneNote, 팀즈 등)를 위한 기본 코파일럿 플러그인으로, 워드에서 다른 파일을 기반으로 콘텐츠를 생성하고, 엑셀에서 수식과 계산을 생성하고, PPT에서 다른 파일을 기반으로 프레젠테이션을 만들 수 있습니다. 또한 PPT의 다른 문서에서 프레젠테이션을 만들고, OneNote에서 노트를 정리하고 더 많은 노트를 생성하고, 팀에서 회의를 요약하는 등의 작업을 수행할 수 있습니다.

 

관련 자료 1: "증류에 최적화된 DeepSeek R1 모델을 Copilot+ PC에서 로컬로 실행하기

AI는 엣지로 이동하고 있으며 Copilot+ PC가 그 길을 선도하고 있습니다. Azure AI Foundry가 클라우드 호스팅 DeepSeek R1(관련 읽기2)과 함께 출시됨에 따라, NPU에 최적화된 버전의 DeepSeek-R1을 Copilot+ PC에 직접 제공하며, 먼저 Qualcomm Snapdragon X 플랫폼에 맞게 조정한 후 인텔 코어 울트라 200V 같은 플랫폼도 지원할 예정입니다. DeepSeek-R1-Distill-Qwen-1.5B의 첫 번째 릴리스는 AI 툴킷에서 사용할 수 있으며, 버전 7B와 14B는 추후 출시될 예정입니다. 이러한 최적화된 모델을 통해 개발자는 Copilot+ PC의 NPU 성능을 최대한 활용하여 장치에서 효율적으로 실행되는 AI 애플리케이션을 빌드하고 배포할 수 있습니다.

Copilot+ PC의 신경 처리 장치(NPU)는 모델 추론을 위한 고효율 엔진을 제공하여 온디맨드 실행뿐만 아니라 반연속적으로 서비스를 실행할 수 있는 새로운 패러다임의 제너레이티브 AI를 열어줍니다. 이를 통해 개발자는 강력한 추론 엔진으로 선제적이고 지속적인 경험을 구축할 수 있습니다. 파이 실리카 프로젝트의 기술 축적을 통해 배터리 수명과 시스템 리소스 소비를 최소화하는 동시에 경쟁력 있는 첫 토큰 응답 시간과 처리 속도를 보장하는 효율적인 추론을 달성했으며, NPU에 최적화된 DeepSeek 모델에는 다음과 같은 프로젝트의 핵심 기술이 다수 적용되어 있습니다. 성능과 효율성의 최적 균형을 위한 모듈식 설계, 저비트폭 양자화 기법, NPU에 대한 트랜스포머의 매핑 전략. 또한, Windows 코파일럿 런타임(WCR)을 활용하여 ONNX QDQ 형식을 통해 Windows 에코시스템 전반에서 확장이 가능합니다.

지금 경험해 보세요!

먼저... 빠르게 시작하겠습니다.

Copilot+ PC에서 DeepSeek를 경험하려면 AI Toolkit용 VS 코드 확장자를 다운로드하기만 하면 됩니다. 곧 AI Toolkit 모델 리포지토리에서 ONNX QDQ 형식의 최적화된 DeepSeek 모델을 사용할 수 있으며 Azure AI Foundry에서 직접 가져올 수 있습니다. 로컬로 다운로드하려면 '다운로드' 버튼을 클릭하세요. 다운로드가 완료되면 Playground를 열고 "deepseek_r1_1_5" 모델을 로드한 후 프롬프트에 따라 실험을 시작하면 됩니다.

Copilot+ PC에 최적화된 ONNX 모델 외에도 "DeepSeek R1"사용해 보기". 놀이터" 버튼을 클릭하여 Azure Foundry의 클라우드에서 호스팅되는 원본 모델을 경험하세요.

AI 도구 키트는 개발자 워크플로에서 중요한 부분으로, 모델 실험 및 배포 준비를 지원합니다. 이 플레이그라운드를 사용하면 로컬 배포를 위해 Azure AI Foundry에서 DeepSeek 모델을 쉽게 테스트할 수 있습니다.

칩 수준 최적화

증류에 최적화된 Qwen 1.5B 모델에는 토큰화기, 임베딩 레이어, 컨텍스트 처리 모델, 토큰 반복 모델, 언어 모델 헤더 및 디토큰화기 모듈이 포함되어 있습니다.

임베딩 레이어와 언어 모델 헤더에 4비트 청크 양자화를 사용하고 이러한 메모리 집약적 연산을 CPU에서 실행합니다. 컨텍스트 처리와 토큰 반복을 포함하는 계산 집약적인 Transformer 모듈에 주요 NPU 최적화 리소스를 집중하여 채널별 int4 양자화를 사용하고 가중치에 대해 선택적 혼합 정밀도 처리를 구현하는 한편, 활성화 값은 int16 정밀도를 사용합니다.

딥서치 1.5B 버전에는 int4 버전이 있지만, 동적 입력 형태와 동작이 존재하므로 호환성과 최적의 효율성을 위해 최적화해야 하기 때문에 NPU에 직접 적용할 수 없습니다. 또한ONNX QDQ형식을 사용하여 Windows 에코시스템에서 다양한 유형의 NPU 확장을 지원합니다. 전력 소비와 속도 간에 최적의 균형을 이루기 위해 CPU와 NPU 간의 연산자 레이아웃을 최적화합니다.

낮은 메모리 사용량과 빠른 추론(파이 실리카 방식과 유사)이라는 두 가지 목표를 달성하기 위해 두 가지 주요 개선 사항을 적용했습니다. 첫째, 하드웨어 스택이 동적 텐서를 지원하지 않는 경우에도 초고속 첫 토큰 응답 시간과 긴 컨텍스트 지원을 가능하게 하는 슬라이딩 윈도우 설계를 채택하고, 둘째, 낮은 비트폭 처리의 장점을 최대한 활용하는 4비트 QuaRot 양자화 방식을 사용합니다. QuaRot은 Hadamard 회전을 통해 가중치 및 활성화 값의 이상값을 제거하여 모델을 더 쉽게 정량화할 수 있습니다. 특히 채널별 양자화와 같이 세분성이 낮은 시나리오에서 GPTQ와 같은 기존 방법과 비교했을 때 QuaRot은 양자화 정확도를 크게 향상시킵니다. 낮은 비트폭 양자화와 슬라이딩 윈도우 설계와 같은 하드웨어 최적화의 조합을 통해 컴팩트한 메모리 공간으로 대형 모델의 동작 특성을 달성할 수 있습니다. 이러한 최적화의 결과로 이 모델은 짧은 큐(64개 미만의 토큰) 시나리오에서 130ms의 첫 토큰 응답 시간과 초당 16개 토큰의 처리 속도를 달성합니다.

고성능을 유지하면서 에너지 효율 최적화를 달성하는 다음 예시를 통해 원래 모델 응답과 정량적 모델 응답 간의 미묘한 차이를 보여줍니다:

微软 Azure+Copilot+AI PC 产品全线支持 DeepSeek R1 模型

그림 1: 정성적 비교. 동일한 단서에 반응하는 원본 모델(왼쪽)과 NPU 최적화 모델(오른쪽)의 예시, 모델의 추론 능력을 보여주는 데모. 최적화된 모델은 원본 모델의 추론 패턴을 유지하며 동일한 결론에 도달하여 원본 모델의 추론 능력을 그대로 유지하고 있음을 보여줍니다.

NPU에 최적화된 딥시크 R1 모델의 뛰어난 속도와 에너지 효율 성능을 통해 사용자는 로컬에서 완전히 자율적으로 이 획기적인 모델과 상호 작용할 수 있습니다.

 

관련 읽기 2: "이제 Azure AI Foundry 및 GitHub에서 DeepSeek R1을 사용할 수 있습니다.

DeepSeek R1 출시 Azure AI 파운드리 의 모델 카탈로그에 추가되어 최첨단 오픈 소스, 산업별 및 작업 지향 AI 모델을 아우르는 1,800개 이상의 다양한 모델 포트폴리오에 합류합니다. Azure AI Foundry의 일부인 DeepSeek R1은 신뢰할 수 있고 확장 가능한 엔터프라이즈급 플랫폼을 통해 액세스할 수 있으며, 조직이 고급 AI 기술을 원활하게 통합하는 동시에 SLA, 보안 및 책임 있는 AI의 약속을 충족할 수 있도록 지원하며 모두 Microsoft의 안정성과 혁신으로 뒷받침됩니다. 모두 Microsoft의 안정성과 혁신으로 지원됩니다.

Azure AI 파운드리 개발자를 위한 AI 추론 가속화

AI 추론은 놀라운 속도로 인기를 얻고 있으며, 개발자와 기업이 최첨단 인텔리전스를 적용하는 방식을 바꾸고 있습니다. DeepSeek의 설명에 따르면, R1은 더 많은 사용자가 최소한의 인프라 투자로 최첨단 AI 기능을 이용할 수 있는 강력하고 비용 효율적인 모델을 제공합니다.

개발자가 작업 흐름에 AI를 실험, 반복 및 통합할 수 있는 속도가 빨라진다는 것이 Azure AI Foundry에서 DeepSeek R1 또는 기타 모델을 사용하는 주요 이점입니다. 기본 제공 모델 평가 도구를 사용하여 개발자는 결과를 빠르게 비교하고, 성능 벤치마크를 평가하고, AI 기반 애플리케이션을 확장할 수 있습니다. 불과 몇 달 전만 해도 상상할 수 없었던 이러한 빠른 액세스는 최고의 AI 모델을 한곳에 모아 혁신을 가속화하고 전 세계 조직에 새로운 가능성을 열어준다는 Azure AI 파운드리의 비전의 핵심입니다.

신뢰할 수 있는 AI로 개발하기

Microsoft는 고객이 최고 수준의 보안을 유지하면서 프로덕션 지원 AI 애플리케이션을 신속하게 빌드할 수 있도록 지원하기 위해 최선을 다하고 있습니다. deepSeek R1은 모델 동작의 자동화된 평가와 잠재적 위험을 완화하기 위한 포괄적인 보안 검토를 포함하여 엄격한 "레드팀 테스트" 및 보안 평가를 통과했습니다. 기본 제공 콘텐츠 필터링은 기본적으로 사용하도록 설정되며 Azure AI 콘텐츠 보안을 통해 유연한 옵트아웃 옵션을 사용할 수 있습니다. 또한 보안 평가 시스템을 통해 고객은 배포 전에 애플리케이션을 효율적으로 테스트할 수 있습니다. 이러한 안전 장치를 통해 Azure AI Foundry는 조직에 안전하고 규정을 준수하며 책임감 있게 AI 솔루션을 배포할 수 있는 환경을 제공할 수 있습니다.

모델 카탈로그에서 DeepSeek를 사용하는 방법

微软 Azure+Copilot+AI PC 产品全线支持 DeepSeek R1 模型
  • Azure 구독이 없는 경우 이제 다음을 수행할 수 있습니다.Azure 계정 등록
  • 모델 카탈로그에서 DeepSeek R1을 검색하세요.
  • Azure AI Foundry의 모델 카탈로그에서 모델 카드 열기
  • '배포'를 클릭하여 추론 API와 키를 가져와 테스트베드에 액세스합니다.
  • 1분 이내에 API와 키가 표시된 배포 페이지로 이동하여 테스트베드에서 프롬프트를 입력할 수 있습니다.
  • API와 키는 다양한 클라이언트에서 사용할 수 있습니다.

지금 시작하기

이제 서버리스 엔드포인트를 통해 Azure AI Foundry 모델 카탈로그에서 DeepSeek R1에 액세스할 수 있습니다.지금 Azure AI 파운드리에 액세스 를 클릭하고 DeepSeek 모델을 선택합니다.

더 많은 리소스를 살펴보고 GitHub에서 DeepSeek R1을 애플리케이션에 원활하게 통합하기 위한 단계별 가이드를 확인하세요. 읽기 GitHub 모델 블로그 게시물.

곧 출시 예정: 고객은 DeepSeek R1의 라이트 모델을 사용하여 Copilot+ PC에서 로컬로 실행할 수 있습니다. 자세히 보기 Windows 개발자 블로그 게시물.

Azure AI Foundry의 모델 카탈로그를 계속 확장함에 따라 개발자와 기업이 DeepSeek R1을 사용하여 실제 문제를 해결하고 혁신적인 환경을 만드는 방법을 목격할 수 있기를 기대합니다. Microsoft는 모든 규모의 조직이 혁신과 성공을 추진하는 데 필요한 최첨단 도구에 액세스할 수 있도록 가장 포괄적인 AI 모델 포트폴리오를 제공하기 위해 최선을 다하고 있습니다.

© 저작권 정책

관련 문서

댓글 없음

댓글에 참여하려면 로그인해야 합니다!
지금 로그인
없음
댓글 없음...