📚 데이터베이스의 구조
모델/카탈로그 | 설명 및 콘텐츠 |
---|---|
Axolotl | 언어 모델 미세 조정을 위한 프레임워크 |
Gemma | Google의 최신 빅 언어 모델 구현 |
- finetune-gemma.ipynb - gemma-sft.py - Gemma_finetuning_notebook.ipynb | 노트북과 스크립트 미세 조정하기 |
LLama2 | 메타의 오픈 소스 대규모 언어 모델 |
- generate_response_stream.py - Llama2_finetuning_notebook.ipynb - Llama_2_Fine_Tuning_using_QLora.ipynb | 구현 및 미세 조정 가이드라인 |
Llama3 | 예정된 메타 대규모 언어 모델링 실험 |
- Llama3_finetuning_notebook.ipynb | 초기 미세 조정 실험 |
라마팩토리 | 대규모 언어 모델 학습 및 배포를 위한 프레임워크 |
LLMArchitecture/ParameterCount | 모델 아키텍처의 기술적 세부 사항 |
미스트랄-7b | 미스트랄 AI 70억 개의 매개변수 모델 |
- LLM_evaluation_harness_for_Arc_Easy_and_SST.ipynb - Mistral_Colab_Finetune_ipynb_Colab_Final.ipynb - notebooks_chatml_inference.ipynb - notebooks_DPO_fine_tuning.ipynb - notebooks_SFTTrainer TRL.ipynb - SFT.py | 평가, 미세 조정 및 추론을 위한 통합 노트북 |
믹스트랄 | 믹스트랄의 전문 믹싱 모델 |
- Mixtral_fine_tuning.ipynb | 미세 조정 실현 |
VLM | 시각 언어 모델 |
- Florence2_finetuning_notebook.ipynb - PaliGemma_finetuning_notebook.ipynb | 시각 언어 모델 구현 |
🎯 모듈 개요
1. LLM 아키텍처
- 다음 모델 구현을 살펴보세요:
- Llama2(메타의 오픈 소스 모델)
- 미스트랄-7b(효율적인 70억 개의 파라미터 모델)
- 믹스트랄(전문가 혼합 아키텍처)
- 젬마(Google의 최신 기여)
- Llama3(예정된 실험)
2. 🛠️ 미세 조정 기술
- 구현 전략
- LoRA(낮은 순위 적응) 방법론
- 고급 최적화 방법
3. 🏗️ 모델 아키텍처 분석
- 모델 구조에 대한 심층 연구
- 매개변수 계산 방법
- 확장성 고려 사항
4. 🔧 전문성 충족
- 프로그래밍 작업을 위한 코드 라마
- 시각적 언어 모델링:
- 피렌체2
- 팔리젬마
5. 💻 실용적인 애플리케이션
- 주피터 노트북 통합
- 응답 생성 파이프라인
- 추론 구현 가이드
6. 🚀 고급 테마
- DPO(직접 환경 설정 최적화)
- SFT(감독형 미세 조정)
- 평가 방법론
© 저작권 정책
기사 저작권 AI 공유 서클 모두 무단 복제하지 마세요.
관련 문서
댓글 없음...