大規模なモデルの微調整

全28記事
GraphGen:利用知识图谱生成合成数据微调语言模型

GraphGen: 知識グラフを使って言語モデルを微調整し、合成データを生成する

包括的な紹介 GraphGenは、上海のAIラボであるOpenScienceLabによって開発されたオープンソースのフレームワークであり、GitHubでホストされている。GraphGenは、知識グラフを通して合成データ生成を導くことによって、大規模言語モデル(LLM)の教師ありファインチューニングを最適化することに焦点を当てている。LLMは...
3ヶ月前
0849
MiniMind-V:1小时训练26M参数视觉语言模型

MiniMind-V:26Mパラメトリック視覚言語モデルの1時間トレーニング

概要 MiniMind-Vは、GitHubでホストされているオープンソースプロジェクトで、わずか2600万個のパラメータを持つ軽量な視覚言語モデル(VLM)を1時間以内に学習できるように設計されています。MiniMind 言語モデルをベースに、新しいビジュアル...
4ヶ月前
01K
WeClone:用微信聊天记录和语音训练数字分身

WeClone:WeChatのチャットログと音声を使ったデジタル・ドッペルゲンガーの育成

総合的な紹介 WeCloneは、WeChatのチャット記録と音声メッセージを、大規模な言語モデルと音声合成技術と組み合わせて使用するオープンソースプロジェクトであり、ユーザーはパーソナライズされたデジタル・ドッペルゲンガーを作成することができます。このプロジェクトは、ユーザーのチャットの習慣を分析してモデルを訓練するだけでなく、少数の音声サンプルを使ってリアルな音声を生成することができます。
4ヶ月前
01.2K
Search-R1:强化学习训练大模型搜索与推理的工具

Search-R1: 検索と推論のための大規模モデルを学習する強化学習

概要 Search-R1はPeterGriffinJinによってGitHub上で開発されたオープンソースプロジェクトであり、veRLフレームワーク上に構築されている。強化学習(RL)技術によって大規模言語モデル(LLM)を学習し、モデルが自律的に学習することを可能にします...
4ヶ月前
01.2K
Optexity:用人类演示训练AI执行网页操作的开源项目

Optexity:人間の実演を見ながらウェブ操作を行うAIを訓練するオープンソースプロジェクト

概論 OptexityはGitHub上のオープンソースプロジェクトで、Optexityチームによって開発されている。このプロジェクトの核心は、人間のデモ・データを使って、コンピュータ・タスク、特にウェブ・ページ操作をこなすAIを訓練することである。このプロジェクトには3つのコードライブラリが含まれている。
4ヶ月前
01.2K
Second Me:本地训练拥有个人记忆和习惯的AI分身

セカンド・ミー:個人的な記憶と習慣を持つ、現地で訓練されたAIドッペルゲンガー

Second MeはMindverseチームによって開発されたオープンソースプロジェクトで、あなたのコンピューター上に「デジタル・ドッペルゲンガー」のような働きをするAIを作り、あなたの言葉や記憶を通してあなたの話し方や癖を学習し、あなたのことを理解する賢い人間になることができる。
5ヶ月前
01.8K
Easy Dataset:创建大模型微调数据集的简易工具

Easy Dataset: 大規模モデルの微調整データセットを作成するシンプルなツール

包括的な紹介 Easy Datasetは、大規模モデル(LLM)を微調整するために特別に設計されたオープンソースツールで、GitHubでホストされています。ファイルのアップロード、コンテンツの自動セグメント化、質問と回答の生成、そして最終的に適切なLLMの出力を可能にする、使いやすいインターフェースを提供します。
5ヶ月前
01.3K
MM-EUREKA:探索视觉推理的多模态强化学习工具

MM-EUREKA:視覚的推論を探求するマルチモーダル強化学習ツール

MM-EUREKAは、上海交通大学の上海人工知能研究所とその他の関係者によって開発されたオープンソースプロジェクトです。ルールベースの強化学習技術により、テキスト推論機能をマルチモーダルシナリオに拡張し、モデルによる画像とテキスト情報の処理を支援します。このツールのコア...
5ヶ月前
01.1K
AI Toolkit by Ostris:Stable Diffusion与FLUX.1模型训练工具包

オストリスによるAIツールキット:FLUX.1モデルトレーニングツールキットによる安定した拡散

概論 OstrisによるAI Toolkitは、Stable DiffusionとFLUX.1モデルの学習と画像生成タスクのサポートに重点を置いたオープンソースのAIツールセットです。このツールセットは、開発者のOstrisによって作成・保守されています。
5ヶ月前
01.4K
X-R1:在普通设备中低成本训练0.5B模型

X-R1:一般的なデバイスの0.5Bモデルを低コストでトレーニング

一般的な紹介 X-R1は、dhcode-cppチームによってGitHubでオープンソース化された強化学習フレームワークであり、エンドツーエンドの強化学習に基づいてモデルをトレーニングするための低コストで効率的なツールを開発者に提供することを目的としている。このプロジェクトはDeepSeek...によってサポートされている。
5ヶ月前
01K
OpenManus-RL:微调大模型强化智能体推理与决策能力

OpenManus-RL: 大規模モデルの微調整による知的身体推論と意思決定の強化

概論 OpenManus-RLは、UIUC-UlabがMetaGPTコミュニティのOpenManusチームと共同で開発したオープンソースプロジェクトであり、GitHubでホストされている。このプロジェクトは、強化学習(RL)技術によって大規模言語モデリング(LLM)を強化する...
5ヶ月前
01.6K
TPO-LLM-WebUI:输入问题即可实时训练模型输出结果的AI框架

TPO-LLM-WebUI:質問を入力してリアルタイムにモデルを学習し、結果を出力できるAIフレームワーク。

概論 TPO-LLM-WebUIは、AirmomoがGitHubでオープンソース化している革新的なプロジェクトで、直感的なWebインターフェースを通じて大規模言語モデル(LLM)のリアルタイム最適化を可能にします。TPO (Test-Time Pr...
6ヶ月前
01.7K
中文基于满血 DeepSeek-R1 蒸馏数据集,支持中文R1蒸馏SFT数据集

中国ベースの全血DeepSeek-R1蒸留データセット、中国R1蒸留SFTデータセットをサポート

包括的な紹介 中国語DeepSeek-R1蒸留データセットは、機械学習と自然言語処理の研究をサポートするために設計された、110Kのデータを含むオープンソースの中国語データセットである。このデータセットはCong LiuのNLPチームによって公開されている。 このデータセットには数学的なデータだけでなく、一般的なタイプのデータも多数含まれている。
6ヶ月前
01.2K
ColossalAI:提供高效大规模AI模型训练解决方案

ColossalAI: 効率的な大規模AIモデル学習ソリューションの提供

包括的な紹介 ColossalAIは、HPC-AI Technologies社によって開発されたオープンソースのプラットフォームで、大規模なAIモデルの学習と推論に効率的でコスト効率の高いソリューションを提供します。複数の並列戦略、ヘテロジニアスメモリ管理、混合精度学習をサポートすることで、ColossalAIは...
6ヶ月前
01K
One Shot LoRA:快速生成视频 LoRA 模型的全能平台

ワンショットLoRA:迅速なビデオLoRAモデル生成のためのオールインワンプラットフォーム

概要 One Shot LoRAは、動画から高品質の動画LoRAモデルを生成することに特化したプラットフォームです。ユーザーは、ログインや個人データの保存をすることなく、動画から素早く簡単にブティックLoRAモデルをトレーニングすることができます。このプラットフォームはHunyua...
6ヶ月前
01.4K
Kiln:简单的LLM模型微调和数据合成工具,0代码基础微调自己的小模型

Kiln: シンプルなLLMモデルの微調整とデータ合成ツール!

包括的な紹介 Kilnは、大規模言語モデル(LLM)の微調整、合成データの生成、およびデータセットのコラボレーションに焦点を当てたオープンソースツールです。Windows、MacOS、Linuxシステムをサポートする直感的なデスクトップアプリケーションを提供し、LLMのゼロコード実装を可能にします。
6ヶ月前
01.6K
Maestro:简化主流开源视觉语言模型微调过程的工具

Maestro:主流のオープンソース視覚言語のモデルの微調整プロセスを簡素化するツール

包括的な紹介 MaestroはRoboflowによって開発されたツールで、マルチモーダルモデルのファインチューニングプロセスを簡素化、高速化し、誰でも独自の視覚マクロモデルをトレーニングできるようにします。F... などの一般的な視覚言語モデル(VLM)を微調整するためのレシピが用意されています。
6ヶ月前
01.4K
LlamaEdge:本地运行和微调LLM的最快捷方式

LlamaEdge:LLMをローカルで実行し、微調整する最も迅速な方法!

概要 LlamaEdgeは、ローカルデバイスやエッジデバイス上で大規模な言語モデル(LLM)を実行し、微調整するプロセスを簡素化するために設計されたオープンソースプロジェクトです。このプロジェクトはLlama2ファミリーのモデルをサポートし、OpenAI互換のAPIサービスを提供します。
7ヶ月前
01.5K
Unsloth:高效微调和训练大语言模型的开源工具

Unsloth: 大規模言語モデルの効率的な微調整と学習のためのオープンソースツール

包括的な紹介 Unslothは、大規模言語モデル(LLM)の微調整と学習のための効率的なツールを提供するために設計されたオープンソースプロジェクトです。このプロジェクトは、Llama、Mistral、Phi、Gemmaなどの有名なモデルをサポートしています。
6ヶ月前
01.8K
Bakery:轻松微调和货币化开源AI模型

ベーカリー:オープンソースのAIモデルを簡単に微調整し、収益化する

概要 Bakeryは、AIスタートアップ、機械学習エンジニア、研究者向けに設計されたプラットフォームで、シンプルで効率的なAIモデルの微調整と収益化サービスを提供します。ユーザーは、Bakeryを通じてコミュニティ主導のデータセットにアクセスしたり、独自のデータセットを作成またはアップロードしたり、モデルを微調整したりすることができます...
7ヶ月前
01.6K
NVIDIA Garak:检测LLM漏洞的开源工具,确保生成式AI的安全性

NVIDIA Garak:LLMの脆弱性を検出し、安全な生成AIを実現するオープンソースツール

包括的な紹介 NVIDIA Garakは、大規模言語モデル(LLM)の脆弱性を検出するために特別に設計されたオープンソースツールです。静的、動的、適応的なプロービングを通して、イリュージョン、データリーク、ヒントインジェクション、エラーメッセージ生成、有害コンテンツ生成などの複数の弱点がないかモデルをチェックします。
8ヶ月前
01.6K
ModelScope Swift:高效微调和部署大模型的轻量级基础设施。

ModelScope Swift:大規模モデルを効率的に微調整し、デプロイするための軽量インフラストラクチャ。

包括的な紹介 ModelScope Swift(略してMS-Swift)は、大規模モデル(LLM)やマルチモーダル大規模モデル(MLLM)の微調整、推論、評価、デプロイのために設計された効率的な軽量インフラストラクチャです。このフレームワークは400以上のLLM...
9ヶ月前
02.1K
LLaMA Factory:高效微调百余种开源大模型,轻松实现模型定制

LLaMAファクトリー:100以上のオープンソースマクロモデルの効率的な微調整、簡単なモデルのカスタマイズ

概要 LLaMA-Factoryは、100以上の大規模言語モデル(LLM)の柔軟なカスタマイズと効率的な学習をサポートする、統一された効率的な微調整フレームワークです。LLaMA Boardのウェブインターフェースを使用することで、ユーザーはコードを書くことなくモデリングを完了することができます。
9ヶ月前
01.8K
Petals:分布式共享GPU运行和微调大语言模型,像BitTorrent网络一样共享GPU资源

Petals:大規模言語モデルの実行と微調整をGPUで分散共有し、BitTorrentネットワークのようにGPUリソースを共有する。

一般的な紹介 Petalsは、BigScienceワークショップによって開発されたオープンソースプロジェクトで、分散コンピューティングアプローチによって大規模言語モデル(LLM)を実行する。コンシューマーグレードのGPUやGoogle Co...
9ヶ月前
02K
Forefront AI:机器学习模型调优平台|AI聊天助手

Forefront AI:機械学習モデルチューニングプラットフォーム|AIチャットアシスタント

包括的な紹介 Forefront AIは、オープンソースモデルのカスタマイズと展開に重点を置いた先進的なAIプラットフォームです。ユーザーは、GPT-4、GPT-3.5など、さまざまな強力なAIモデルを選択して微調整し、さまざまなタスク要件に対応させることができます。このプラットフォームは、PD...
9ヶ月前
01.7K