AIパーソナル・ラーニング
と実践的なガイダンス
讯飞绘镜
全20記事

Tags: ビッグモデル微調整

Easy Dataset:创建大模型微调数据集的简易工具-首席AI分享圈

Easy Dataset: 大規模モデルの微調整データセットを作成するシンプルなツール

包括的な紹介 Easy Datasetは、大規模モデル(LLM)のファインチューニングのために特別に設計されたオープンソースツールで、GitHubでホストされています。ユーザーがファイルをアップロードし、コンテンツを自動的に分割し、質問と回答を生成し、最終的にファインチューニングに適した構造化データセットを出力できる、使いやすいインターフェースを提供します。オープン ...

MM-EUREKA:探索视觉推理的多模态强化学习工具-首席AI分享圈

MM-EUREKA:視覚的推論を探求するマルチモーダル強化学習ツール

MM-EUREKAは、上海交通大学の上海人工知能研究所とその他の関係者によって開発されたオープンソースプロジェクトです。ルールベースの強化学習技術により、テキスト推論機能をマルチモーダルシナリオに拡張し、モデルによる画像とテキスト情報の処理を支援する。このツールの主な目的は、画像やテキスト情報を処理するモデルを改善することである。

AI Toolkit by Ostris:Stable Diffusion与FLUX.1模型训练工具包-首席AI分享圈

オストリスによるAIツールキット:FLUX.1モデルトレーニングツールキットによる安定した拡散

概 要 AI Toolkit by Ostrisは、Stable DiffusionとFLUX.1モデルの学習と画像生成タスクのサポートに特化したオープンソースのAIツールセットです。開発者のOstrisによって作成・保守され、GitHubでホストされているこのツールキットは、研究者や開発者に柔軟なモデルマイクロ...

X-R1:在普通设备中低成本训练0.5B模型-首席AI分享圈

X-R1:一般的なデバイスの0.5Bモデルを低コストでトレーニング

一般的な紹介 X-R1は、dhcode-cppチームによってGitHubでオープンソース化された強化学習フレームワークであり、エンドツーエンドの強化学習に基づくモデルをトレーニングするための低コストで効率的なツールを開発者に提供することを目的としている。このプロジェクトは、DeepSeek-R1とopen-r1にインスパイアされ、...

OpenManus-RL:微调大模型强化智能体推理与决策能力-首席AI分享圈

OpenManus-RL: 大規模モデルの微調整による知的身体推論と意思決定の強化

一般的な紹介 OpenManus-RLは、UIUC-UlabとMetaGPTコミュニティのOpenManusチームによって共同開発されたオープンソースプロジェクトで、GitHubでホストされています。このプロジェクトは、強化学習(RL)技術を通じて、Deepseek-R1、QwQ-32Bに基づく大規模言語モデル(LLM)知能の推論および意思決定能力を強化します。...

TPO-LLM-WebUI:输入问题即可实时训练模型输出结果的AI框架-首席AI分享圈

TPO-LLM-WebUI:質問を入力してリアルタイムにモデルを学習し、結果を出力できるAIフレームワーク。

包括的な紹介 TPO-LLM-WebUIは、AirmomoがGitHubでオープンソース化している革新的なプロジェクトで、直感的なWebインターフェースを通じて大規模言語モデル(LLM)のリアルタイム最適化を可能にします。TPO (Test-Time Prompt Optimisation)フレームワークを使用し、従来の微調整の退屈なプロセスに完全に別れを告げます...

Open-Reasoner-Zero:开源大规模推理强化学习训练平台-首席AI分享圈

Open-Reasoner-Zero:オープンソースの大規模推論強化学習トレーニングプラットフォーム

概論 Open-Reasoner-Zeroは強化学習(RL)研究に焦点を当てたオープンソースプロジェクトで、GitHub上のOpen-Reasoner-Zeroチームによって開発されています。効率的でスケーラブル、かつ使いやすい学習フレームワークを提供することで、人工知能分野の研究プロセスを加速させることを目的としており、特にパス...

中文基于满血 DeepSeek-R1 蒸馏数据集,支持中文R1蒸馏SFT数据集-首席AI分享圈

中国ベースの全血DeepSeek-R1蒸留データセット、中国R1蒸留SFTデータセットをサポート

包括的な紹介 中国語のDeepSeek-R1蒸留データセットは、機械学習と自然言語処理の研究を支援するために設計された、110Kのデータ項目を含むオープンソースの中国語データセットである。このデータセットはCong LiuのNLPチームによって公開されている。 このデータセットには数学的データだけでなく、論理的推論などの一般的なデータも多数含まれている。

ColossalAI:提供高效大规模AI模型训练解决方案-首席AI分享圈

ColossalAI: 効率的な大規模AIモデル学習ソリューションの提供

包括的な紹介 ColossalAIは、HPC-AI Technologies社によって開発されたオープンソースプラットフォームで、大規模なAIモデルの学習と推論に効率的でコスト効率の高いソリューションを提供します。複数の並列戦略、ヘテロジニアスメモリ管理、混合精度学習をサポートすることで、ColossalAIはモデルの学習と推論を大幅に削減することができます...

One Shot LoRA:快速生成视频 LoRA 模型的全能平台-首席AI分享圈

ワンショットLoRA:迅速なビデオLoRAモデル生成のためのオールインワンプラットフォーム

概要 One Shot LoRAは、動画から高品質の動画LoRAモデルを生成することに特化したプラットフォームです。ユーザーは、ログインや個人データを保存することなく、動画から高品質なLoRAモデルを迅速かつ簡単にトレーニングすることができます。このプラットフォームは、Hunyuan Video、FLUX、SDXLをサポートしています。

Kiln:简单的LLM模型微调和数据合成工具,0代码基础微调自己的小模型-首席AI分享圈

Kiln: シンプルなLLMモデルの微調整とデータ合成ツール!

包括的な紹介 Kilnは、大規模言語モデル(LLM)の微調整、合成データの生成、およびデータセットのコラボレーションに焦点を当てたオープンソースツールです。Windows、MacOS、Linuxに対応した直感的なデスクトップアプリケーションを提供し、Llama、GPT4o、Mixtralなどのモデルをゼロコードで実装することができます。

Maestro:简化主流开源视觉语言模型微调过程的工具-首席AI分享圈

Maestro:主流のオープンソース視覚言語のモデルの微調整プロセスを簡素化するツール

包括的な紹介 MaestroはRoboflowによって開発されたツールで、マルチモーダルモデルのファインチューニングプロセスを簡素化・高速化し、誰もが独自の視覚マクロモデルをトレーニングできるようにします。Florence-2、PaliGemma ...などの一般的な視覚言語モデル(VLM)を微調整するためのレシピが用意されています。

LlamaEdge:本地运行和微调LLM的最快捷方式-首席AI分享圈

LlamaEdge:LLMをローカルで実行し、微調整する最も迅速な方法!

概要 LlamaEdgeは、ローカルまたはエッジデバイス上で大規模な言語モデル(LLM)を実行し、微調整するプロセスを簡素化するために設計されたオープンソースプロジェクトです。このプロジェクトは、Llama2ファミリーのモデルをサポートし、ユーザーが簡単にLLM推論アプリケーションを作成し、実行できるようにするOpenAI互換のAPIサービスを提供します。

Unsloth:高效微调和训练大语言模型的开源工具-首席AI分享圈

Unsloth: 大規模言語モデルの効率的な微調整と学習のためのオープンソースツール

包括的な紹介 Unslothは、大規模言語モデル(LLM)の微調整と学習のための効率的なツールを提供するために設計されたオープンソースプロジェクトです。このプロジェクトは、Llama、Mistral、Phi、Gemmaなどの有名なモデルを幅広くサポートしています。Unslothの主な特徴は、メモリ使用量を大幅に削減し、学習を高速化できることです。

Bakery:轻松微调和货币化开源AI模型-首席AI分享圈

ベーカリー:オープンソースのAIモデルを簡単に微調整し、収益化する

概要 Bakeryは、AIスタートアップ、機械学習エンジニア、研究者向けに設計されたプラットフォームで、シンプルで効率的なAIモデルの微調整と収益化サービスを提供します。Bakeryを利用することで、ユーザーはコミュニティ主導のデータセットにアクセスしたり、独自のデータセットを作成またはアップロードしたり、モデルの設定を微調整したり、マーケティングしたりすることができます。

NVIDIA Garak:检测LLM漏洞的开源工具,确保生成式AI的安全性-首席AI分享圈

NVIDIA Garak:LLMの脆弱性を検出し、安全な生成AIを実現するオープンソースツール

包括的な紹介 NVIDIA Garakは、大規模言語モデル(LLM)の脆弱性を検出するために特別に設計されたオープンソースツールです。Garakは、静的、動的、適応的なプロービングを通じて、イリュージョン、データ漏洩、ヒントインジェクション、エラーメッセージの生成、有害なコンテンツの生成など、複数の弱点についてモデルをチェックします。

ModelScope Swift:高效微调和部署大模型的轻量级基础设施。-首席AI分享圈

ModelScope Swift:大規模モデルを効率的に微調整し、デプロイするための軽量インフラストラクチャ。

包括的な紹介 ModelScope Swift(略してMS-Swift)は、大規模モデル(LLM)とマルチモーダル大規模モデル(MLLM)の微調整、推論、評価、およびデプロイのために設計された効率的な軽量インフラストラクチャです。このフレームワークは、400以上のLLMと100以上のMLLMをサポートし、モデルのトレーニングから評価まですべてを提供します。

LLaMA Factory:高效微调百余种开源大模型,轻松实现模型定制-首席AI分享圈

LLaMAファクトリー:100以上のオープンソースマクロモデルの効率的な微調整、簡単なモデルのカスタマイズ

概要 LLaMA-Factoryは、100以上の大規模言語モデル(LLM)の柔軟なカスタマイズと効率的な学習をサポートする、統一された効率的なファインチューニングフレームワークです。組み込みのLLaMA Boardウェブインターフェースを介して、ユーザーはコードを書くことなくモデルを微調整することができます。このフレームワークには、さまざまな高度なトレーニング...

Petals:分布式共享GPU运行和微调大语言模型,像BitTorrent网络一样共享GPU资源-首席AI分享圈

Petals:大規模言語モデルの実行と微調整をGPUで分散共有し、BitTorrentネットワークのようにGPUリソースを共有する。

一般的な紹介 Petalsは、BigScienceワークショップによって開発されたオープンソースプロジェクトで、分散コンピューティングアプローチによって大規模言語モデル(LLM)を実行します。ユーザーは、Llama 3.1、Mixtral、F...などのコンシューマーグレードのGPUやGoogle Colabを使って、自宅でLLMを実行し、微調整することができます。

ja日本語