Xorbits 추론: 여러 AI 모델의 원클릭 배포, 분산 추론 프레임워크

최신 AI 리소스1년 전 업데이트 AI 공유 서클
10.6K 00

일반 소개

Xorbits Inference(Xinference)는 대규모 언어 모델(LLM), 음성 인식 모델, 멀티모달 모델 등 다양한 AI 모델에 대한 추론을 지원하는 강력하고 포괄적인 분산 추론 프레임워크입니다. 사용자는 클릭 한 번으로 자체 모델을 쉽게 배포하거나 클라우드, 로컬 서버 또는 PC에서 실행되는 내장된 최첨단 오픈 소스 모델을 사용할 수 있습니다.

 

 

기능 목록

  • 대규모 언어 모델, 음성 인식 모델, 멀티모달 모델을 포함한 여러 AI 모델을 통한 추론 지원
  • 실험 및 프로덕션 환경의 설정을 간소화하는 원클릭 배포 및 서비스 모델
  • 클라우드, 로컬 서버 및 PC에서 실행 지원
  • 사용자 편의를 위한 다양한 최첨단 오픈 소스 모델 내장
  • 풍부한 문서 및 커뮤니티 지원 제공

 

 

도움말 사용

설치 프로세스

  1. 환경 준비파이썬 3.7 이상이 설치되어 있는지 확인합니다.
  2. Xorbits 추론 설치::
    pip install xorbits-inference
    
  3. 구성 환경환경 변수 및 종속성: 필요에 따라 환경 변수와 종속성을 구성합니다.

 

사용 프로세스

  1. 모델 로드::
    from xinference import InferenceEngine
    engine = InferenceEngine(model_name="gpt-3")
    
  2. 추론 실행::
    result = engine.infer("你好,世界!")
    print(result)
    
  3. 배포 모델::
    xinference deploy --model gpt-3 --host 0.0.0.0 --port 8080
    

 

세부 기능 작동

  1. 모델 선택사용자는 GPT-3, BERT 등과 같은 다양한 내장형 최첨단 오픈 소스 모델 중에서 선택하거나 추론을 위해 자체 모델을 업로드할 수 있습니다.
  2. 매개변수 구성모델을 배포할 때 필요에 따라 배치 크기, GPU 사용량 등 모델의 매개변수를 구성할 수 있습니다.
  3. 모니터링 및 관리제공되는 관리 인터페이스를 통해 사용자는 모델의 작동 상태와 성능 지표를 실시간으로 모니터링하여 최적화 및 조정을 용이하게 할 수 있습니다.
  4. 커뮤니티 지원다른 사용자들과 경험과 질문을 공유하고 적시에 도움과 지원을 받으려면 Xorbits Inference의 Slack 커뮤니티에 가입하세요.
© 저작권 정책

관련 문서

댓글 없음

댓글에 참여하려면 로그인해야 합니다!
지금 로그인
없음
댓글 없음...