AIパーソナル・ラーニング
と実践的なガイダンス
全2件

Tags: ビッグモデル微調整

LLaMAファクトリー:100以上のオープンソース大規模モデルを効率的に微調整し、モデルのカスタマイズを容易に-チーフAIシェアリングサークル

LLaMAファクトリー:100以上のオープンソースマクロモデルの効率的な微調整、簡単なモデルのカスタマイズ

概要 LLaMA-Factoryは、100以上の大規模言語モデル(LLM)の柔軟なカスタマイズと効率的な学習をサポートする、統一された効率的なファインチューニングフレームワークです。組み込みのLLaMA Boardウェブインターフェースを介して、ユーザーはコードを書くことなくモデルを微調整することができます。このフレームワークには、さまざまな高度なトレーニング...

Petals:大規模言語モデルの実行と微調整をGPUで分散共有、GPUリソースをBitTorrentネットワークのように共有 - Chief AI Sharing Circle

Petals:大規模言語モデルの実行と微調整をGPUで分散共有し、BitTorrentネットワークのようにGPUリソースを共有する。

一般的な紹介 Petalsは、BigScienceワークショップによって開発されたオープンソースプロジェクトで、分散コンピューティングアプローチによって大規模言語モデル(LLM)を実行します。ユーザーは、Llama 3.1、Mixtral、F...などのコンシューマーグレードのGPUやGoogle Colabを使って、自宅でLLMを実行し、微調整することができます。

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語