Große Modell-Feinabstimmung

Insgesamt 28 Artikel
One Shot LoRA:快速生成视频 LoRA 模型的全能平台

One Shot LoRA: die All-in-One-Plattform für die schnelle Erstellung von Video-LoRA-Modellen

Allgemeine Einführung One Shot LoRA ist eine Plattform, die sich auf die Erstellung hochwertiger LoRA-Modelle aus Videos konzentriert. Benutzer können schnell und einfach Boutique LoRA-Modelle aus Videos trainieren, ohne sich anzumelden oder private Daten zu speichern. Die Plattform unterstützt Hunyua...
vor 6 Monaten
03.8K
TPO-LLM-WebUI:输入问题即可实时训练模型输出结果的AI框架

TPO-LLM-WebUI: Ein KI-Framework, in das Sie Fragen eingeben können, um ein Modell in Echtzeit zu trainieren und die Ergebnisse auszugeben.

Allgemeine Einführung TPO-LLM-WebUI ist ein innovatives Projekt, das von Airmomo auf GitHub zur Verfügung gestellt wird und die Echtzeit-Optimierung von Large Language Models (LLMs) über eine intuitive Weboberfläche ermöglicht. Es verwendet TPO (Test-Time Pr...
vor 6 Monaten
03.7K
ModelScope Swift:高效微调和部署大模型的轻量级基础设施。

ModelScope Swift: eine leichtgewichtige Infrastruktur für die effiziente Feinabstimmung und Bereitstellung großer Modelle.

Umfassende Einführung ModelScope Swift (kurz: MS-Swift) ist eine effiziente, leichtgewichtige Infrastruktur, die für die Feinabstimmung, Argumentation, Bewertung und Bereitstellung großer Modelle (LLMs) und multimodaler großer Modelle (MLLMs) entwickelt wurde. Das Framework unterstützt über 400 LLMs...
vor 9 Monaten
03.6K
LLaMA Factory:高效微调百余种开源大模型,轻松实现模型定制

LLaMA Factory: Effiziente Feinabstimmung von mehr als hundert Open-Source-Makromodellen, einfache Modellanpassung

Allgemeine Einführung LLaMA-Factory ist ein einheitliches und effizientes Framework für die Feinabstimmung, das die flexible Anpassung und das effiziente Training von mehr als 100 Large Language Models (LLMs) unterstützt. Mit der eingebauten LLaMA-Board-Webschnittstelle müssen Benutzer keinen Code schreiben, um die Modellierung abzuschließen...
vor 9 Monaten
03.4K
Petals:分布式共享GPU运行和微调大语言模型,像BitTorrent网络一样共享GPU资源

Petals: verteilte gemeinsame GPU-Ausführung und Feinabstimmung großer Sprachmodelle, gemeinsame Nutzung von GPU-Ressourcen wie ein BitTorrent-Netzwerk

Allgemeine Einführung Petals ist ein Open-Source-Projekt, das vom BigScience Workshop entwickelt wurde, um große Sprachmodelle (Large Language Models, LLMs) über einen verteilten Rechenansatz auszuführen. Benutzer können LLMs zu Hause mit Consumer-grade GPUs oder Google Co...
vor 9 Monaten
03.4K
Kiln:简单的LLM模型微调和数据合成工具,0代码基础微调自己的小模型

Kiln: Einfaches LLM-Modell-Feinabstimmung und Datensynthesewerkzeug, 0-Code-Basis zur Feinabstimmung Ihrer eigenen Mini-Modelle!

Umfassende Einführung Kiln ist ein Open-Source-Tool, das sich auf die Feinabstimmung von Large Language Models (LLMs), die Erzeugung synthetischer Daten und die Zusammenarbeit von Datensätzen konzentriert. Es bietet intuitive Desktop-Anwendungen mit Unterstützung für Windows-, MacOS- und Linux-Systeme, mit denen Benutzer eine Null-Code-Implementierung von Ll...
vor 6 Monaten
03.3K
WeClone:用微信聊天记录和语音训练数字分身

WeClone: Ausbildung von digitalen Doppelgängern mit WeChat-Chat-Protokollen und Stimmen

Umfassende Einführung WeClone ist ein Open-Source-Projekt, das WeChat-Chat-Protokolle und Sprachnachrichten in Kombination mit großen Sprachmodellen und Sprachsynthesetechnologie verwendet, um Benutzern die Erstellung personalisierter digitaler Doppelgänger zu ermöglichen. Das Projekt kann die Chat-Gewohnheiten des Benutzers analysieren, um das Modell zu trainieren, aber auch eine kleine Anzahl von Stimmproben, um einen realistischen Klang zu erzeugen...
vor 4 Monaten
03.3K
OpenManus-RL:微调大模型强化智能体推理与决策能力

OpenManus-RL: Feinabstimmung großer Modelle zur Verbesserung der intelligenten Entscheidungsfindung im Körper

Allgemeine Einführung OpenManus-RL ist ein Open-Source-Projekt, das von UIUC-Ulab in Zusammenarbeit mit dem OpenManus-Team der MetaGPT-Community entwickelt wurde und auf GitHub gehostet wird. Das Projekt verbessert die großmaßstäbliche Sprachmodellierung (LLM) durch Techniken des Reinforcement Learning (RL)...
vor 5 Monaten
03.2K
Second Me:本地训练拥有个人记忆和习惯的AI分身

Second Me: lokal trainierte KI-Doppelgänger mit persönlichen Erinnerungen und Gewohnheiten

Second Me ist ein Open-Source-Projekt, das vom Mindverse-Team entwickelt wurde und es Ihnen ermöglicht, eine KI auf Ihrem Computer zu erstellen, die wie ein "digitaler Doppelgänger" agiert, Ihre Sprachmuster und Gewohnheiten durch Ihre Worte und Erinnerungen lernt und zu einer intelligenten Person wird, die Sie versteht...
vor 5 Monaten
03.2K
Forefront AI:机器学习模型调优平台|AI聊天助手

Forefront AI: Plattform für maschinelles Lernen und Modellabstimmung | AI Chat Assistant

Umfassende Einführung Forefront AI ist eine fortschrittliche KI-Plattform, die sich auf die Anpassung und Bereitstellung von Open-Source-Modellen konzentriert. Benutzer können eine Vielzahl leistungsfähiger KI-Modelle wie GPT-4, GPT-3.5 usw. auswählen und feinabstimmen, um unterschiedliche Aufgabenanforderungen zu erfüllen. Die Plattform unterstützt das Hochladen von PD...
vor 9 Monaten
03K
Bakery:轻松微调和货币化开源AI模型

Bakery: Einfache Feinabstimmung und Monetarisierung von Open-Source-KI-Modellen

Allgemeine Einführung Bakery ist eine Plattform, die für KI-Startups, Ingenieure für maschinelles Lernen und Forscher entwickelt wurde, um einfache und effiziente KI-Modell-Feinabstimmung und Monetarisierungsdienste anzubieten. Benutzer können über Bakery auf von der Community bereitgestellte Datensätze zugreifen, ihre eigenen Datensätze erstellen oder hochladen, Modelle...
vor 7 Monaten
02.9K
NVIDIA Garak:检测LLM漏洞的开源工具,确保生成式AI的安全性

NVIDIA Garak: Open-Source-Tool zur Erkennung von LLM-Schwachstellen und zur Sicherung generativer KI

Umfassende Einführung NVIDIA Garak ist ein Open-Source-Tool, das speziell für die Erkennung von Schwachstellen in Large Language Models (LLMs) entwickelt wurde. Es prüft das Modell auf mehrere Schwachstellen wie Illusionen, Datenlecks, Hint-Injektion, Erzeugung von Fehlermeldungen, Erzeugung schädlicher Inhalte usw. durch statische, dynamische und adaptive Prüfung...
vor 9 Monaten
02.9K
中文基于满血 DeepSeek-R1 蒸馏数据集,支持中文R1蒸馏SFT数据集

Chinesischer Vollblut-DeepSeek-R1-Destillationsdatensatz, unterstützt chinesischen R1-Destillations-SFT-Datensatz

Umfassende Einführung Der chinesische DeepSeek-R1-Destillationsdatensatz ist ein chinesischer Open-Source-Datensatz mit 110.000 Daten, der zur Unterstützung der Forschung im Bereich des maschinellen Lernens und der Verarbeitung natürlicher Sprache entwickelt wurde. Der Datensatz wird vom NLP-Team von Cong Liu veröffentlicht und enthält nicht nur mathematische Daten, sondern auch eine große Anzahl allgemeiner...
vor 6 Monaten
02.9K
Easy Dataset:创建大模型微调数据集的简易工具

Easy Dataset: Ein einfaches Tool zur Erstellung großer, fein abgestimmter Modelldatensätze

Umfassende Einführung Easy Dataset ist ein Open-Source-Tool, das speziell für die Feinabstimmung großer Modelle (LLMs) entwickelt wurde und auf GitHub gehostet wird. Es bietet eine einfach zu bedienende Benutzeroberfläche, die es Benutzern ermöglicht, Dateien hochzuladen, Inhalte automatisch zu segmentieren, Fragen und Antworten zu generieren und schließlich eine...
vor 5 Monaten
02.9K
MM-EUREKA:探索视觉推理的多模态强化学习工具

MM-EUREKA: Ein multimodales Reinforcement Learning Tool zur Erforschung des visuellen Denkens

Umfassende Einführung MM-EUREKA ist ein Open-Source-Projekt, das vom Shanghai Artificial Intelligence Laboratory der Shanghai Jiao Tong University und anderen Parteien entwickelt wurde. Es erweitert die Fähigkeiten des textuellen Reasonings auf multimodale Szenarien durch regelbasierte Reinforcement-Learning-Techniken, um Modelle bei der Verarbeitung von Bild- und Textinformationen zu unterstützen. Der Kern dieses Tools...
vor 5 Monaten
02.8K
Maestro:简化主流开源视觉语言模型微调过程的工具

Maestro: ein Tool zur Vereinfachung des Prozesses der Feinabstimmung von Modellen der gängigen visuellen Open-Source-Sprachen

Umfassende Einführung Maestro ist ein von Roboflow entwickeltes Tool, das den Prozess der Feinabstimmung multimodaler Modelle vereinfacht und beschleunigt, so dass jeder seine eigenen visuellen Makromodelle trainieren kann. Es bietet fertige Rezepte für die Feinabstimmung beliebter visueller Sprachmodelle (VLMs) wie F...
vor 6 Monaten
02.8K
Open-Reasoner-Zero:开源大规模推理强化学习训练平台

Open-Reasoner-Zero: Open-Source-Plattform für großangelegtes Reasoning Reinforcement Learning Training

Allgemeine Einführung Open-Reasoner-Zero ist ein Open-Source-Projekt, das sich auf die Forschung im Bereich Reinforcement Learning (RL) konzentriert und vom Open-Reasoner-Zero-Team auf GitHub entwickelt wurde. Es zielt darauf ab, effizientes, skalierbares und einfach zu benutzendes Training zu bieten ...
vor 6 Monaten
02.7K
X-R1:在普通设备中低成本训练0.5B模型

X-R1: Schulung von 0,5B-Modellen in gängigen Geräten zu geringen Kosten

Allgemeine Einführung X-R1 ist ein Reinforcement-Learning-Framework, das vom dhcode-cpp-Team auf GitHub zur Verfügung gestellt wird. Ziel ist es, Entwicklern ein kostengünstiges, effizientes Tool für das Training von Modellen auf Basis von End-to-End Reinforcement Learning zur Verfügung zu stellen. Das Projekt wird von DeepSeek unterstützt...
vor 5 Monaten
02.6K
Optexity:用人类演示训练AI执行网页操作的开源项目

Optexity: ein Open-Source-Projekt zum Trainieren von KI für die Durchführung von Webaktionen mit menschlichen Demonstrationen

Allgemeine Einführung Optexity ist ein Open-Source-Projekt auf GitHub, das vom Optexity-Team entwickelt wurde. Sein Kern ist es, menschliche Demonstrationsdaten zu verwenden, um KI zu trainieren, um Computeraufgaben zu erledigen, insbesondere Webseitenoperationen. Das Projekt enthält drei Code-Bibliotheken: Compute...
vor 4 Monaten
02.6K
GraphGen:利用知识图谱生成合成数据微调语言模型

GraphGen: Feinabstimmung von Sprachmodellen mithilfe von Wissensgraphen zur Erzeugung synthetischer Daten

Umfassende Einführung GraphGen ist ein Open-Source-Framework, das von OpenScienceLab, einem KI-Labor in Shanghai, entwickelt wurde und auf GitHub gehostet wird. Es konzentriert sich auf die Optimierung der überwachten Feinabstimmung von Large Language Models (LLMs), indem es die Erzeugung synthetischer Daten durch Wissensgraphen anleitet. Es wurde entwickelt aus ...
vor 3 Monaten
02.3K
ColossalAI:提供高效大规模AI模型训练解决方案

ColossalAI: Effiziente Lösungen für das Training von KI-Modellen in großem Maßstab bereitstellen

Umfassende Einführung ColossalAI ist eine Open-Source-Plattform, die von HPC-AI Technologies entwickelt wurde, um eine effiziente und kostengünstige Lösung für das Training und die Inferenz umfangreicher KI-Modelle zu bieten. Durch die Unterstützung mehrerer paralleler Strategien, heterogener Speicherverwaltung und Training mit gemischter Präzision ist ColossalAI...
vor 6 Monaten
02.2K