AI Personal Learning
und praktische Anleitung
Sitzsack Marscode1
Insgesamt 27 Artikel

Tags: großes Modell Feinabstimmung

MiniMind-V:1小时训练26M参数视觉语言模型-首席AI分享圈

MiniMind-V: 1 Stunde Training von 26M parametrischen visuellen Sprachmodellen

Umfassende Einführung MiniMind-V ist ein Open-Source-Projekt, gehostet auf GitHub, entwickelt, um Benutzern zu helfen, ein leichtes visuelles Sprachmodell (VLM) mit nur 26 Millionen Parameter in weniger als einer Stunde zu trainieren. Es basiert auf dem MiniMind-Sprachmodell, dem neuen visuellen Kodierer und dem Modul zur Merkmalsprojektion, der Unterstützung für Bild- und Textassoziationen ...

DeepCoder-14B-Preview:擅长代码生成的的开源模型-首席AI分享圈

DeepCoder-14B-Preview: ein Open-Source-Modell, das sich bei der Codegenerierung auszeichnet

Allgemeine Einführung DeepCoder-14B-Preview ist ein Open-Source-Codegenerierungsmodell, das vom Agentica-Team entwickelt und auf der Hugging Face-Plattform veröffentlicht wurde. Es basiert auf DeepSeek-R1-Distilled-Qwen-14B, optimiert durch verteilte Reinforcement-Learning (RL)-Techniken, und kann bis zu 64K Token von Supercode verarbeiten...

WeClone:用微信聊天记录和语音训练数字分身-首席AI分享圈

WeClone: Ausbildung von digitalen Doppelgängern mit WeChat-Chat-Protokollen und Stimmen

Umfassende Einführung WeClone ist ein Open-Source-Projekt, das WeChat-Chat-Protokolle und Sprachnachrichten in Kombination mit großen Sprachmodellen und Sprachsynthesetechnologie verwendet, um Benutzern die Erstellung personalisierter digitaler Doppelgänger zu ermöglichen. Das Projekt kann die Chat-Gewohnheiten des Benutzers analysieren, um das Modell zu trainieren, aber auch eine kleine Anzahl von Stimmproben, um realistische Stimmklone zu erzeugen ...

Search-R1:强化学习训练大模型搜索与推理的工具-首席AI分享圈

Search-R1: Verstärkungslernen zum Trainieren großer Modelle für Suche und Schlussfolgerungen

Allgemeine Einführung Search-R1 ist ein Open-Source-Projekt, das von PeterGriffinJin auf GitHub entwickelt wurde und auf dem veRL-Framework aufbaut. Es verwendet Reinforcement Learning (RL)-Techniken, um große Sprachmodelle (LLMs) zu trainieren, so dass die Modelle selbstständig lernen können, Schlussfolgerungen zu ziehen und Suchmaschinen zur Lösung von Problemen aufzurufen. Das Projekt unterstützt Qwen2.5...

Optexity:用人类演示训练AI执行网页操作的开源项目-首席AI分享圈

Optexity: ein Open-Source-Projekt zum Trainieren von KI für die Durchführung von Webaktionen mit menschlichen Demonstrationen

Allgemeine Einführung Optexity ist ein Open-Source-Projekt auf GitHub, das vom Optexity-Team entwickelt wurde. Sein Kern ist es, menschliche Demonstrationsdaten zu verwenden, um KI zu trainieren, um Computeraufgaben zu erledigen, insbesondere Webseitenoperationen. Das Projekt enthält drei Code-Bibliotheken: ComputerGYM, AgentAI und Playwright, die ...

Bonsai:适合边缘设备运行的三值权重语言模型-首席AI分享圈

Bonsai: Ein dreiwertiges gewichtetes Sprachmodell, das für den Einsatz auf Randgeräten geeignet ist

Allgemeine Einführung Bonsai ist ein von deepgrove-ai entwickeltes Open-Source-Sprachmodell mit einer Parametergröße von 500 Millionen, das ternäre Gewichte verwendet. Es basiert auf der Llama-Architektur und dem Mistral-Klassifikator, mit linearen Schichten, die zur Unterstützung ternärer Gewichte angepasst wurden. Das Modell verwendet hauptsächlich DCLM...

Second Me:本地训练拥有个人记忆和习惯的AI分身-首席AI分享圈

Second Me: lokal trainierte KI-Doppelgänger mit persönlichen Erinnerungen und Gewohnheiten

Second Me ist ein vom Mindverse-Team entwickeltes Open-Source-Projekt, mit dem Sie auf Ihrem Computer eine KI erstellen können, die wie ein "digitaler Doppelgänger" agiert, Ihre Sprache und Gewohnheiten durch Ihre Worte und Erinnerungen lernt und zu einem intelligenten Assistenten wird, der Sie versteht. Seine beste Eigenschaft ist, dass alle Zahlen...

Easy Dataset:创建大模型微调数据集的简易工具-首席AI分享圈

Easy Dataset: Ein einfaches Tool zur Erstellung großer, fein abgestimmter Modelldatensätze

Umfassende Einführung Easy Dataset ist ein Open-Source-Tool, das speziell für die Feinabstimmung großer Modelle (LLMs) entwickelt wurde und auf GitHub gehostet wird. Es bietet eine einfach zu bedienende Schnittstelle, die es Benutzern ermöglicht, Dateien hochzuladen, Inhalte automatisch aufzuteilen, Fragen und Antworten zu generieren und schließlich strukturierte Datensätze auszugeben, die für die Feinabstimmung geeignet sind. Öffnen ...

MM-EUREKA:探索视觉推理的多模态强化学习工具-首席AI分享圈

MM-EUREKA: Ein multimodales Reinforcement Learning Tool zur Erforschung des visuellen Denkens

Umfassende Einführung MM-EUREKA ist ein Open-Source-Projekt, das vom Shanghai Artificial Intelligence Laboratory der Shanghai Jiao Tong University und anderen Parteien entwickelt wurde. Es erweitert die Möglichkeiten des textuellen Reasonings auf multimodale Szenarien durch regelbasierte Reinforcement-Learning-Techniken, um Modelle bei der Verarbeitung von Bild- und Textinformationen zu unterstützen. Das Hauptziel dieses Tools ist die Verbesserung...

AI Toolkit by Ostris:Stable Diffusion与FLUX.1模型训练工具包-首席AI分享圈

AI Toolkit von Ostris: Stabile Diffusion mit FLUX.1 Model Training Toolkit

Allgemeine Einführung AI Toolkit von Ostris ist ein Open-Source-KI-Toolset, das sich auf die Unterstützung von Stable Diffusion und FLUX.1-Modellen für Trainings- und Bilderzeugungsaufgaben konzentriert. Das vom Entwickler Ostris erstellte und gepflegte Toolkit, das auf GitHub gehostet wird, zielt darauf ab, Forschern und Entwicklern eine flexible...

X-R1:在普通设备中低成本训练0.5B模型-首席AI分享圈

X-R1: Schulung von 0,5B-Modellen in gängigen Geräten zu geringen Kosten

Allgemeine Einführung X-R1 ist ein Reinforcement-Learning-Framework, das vom dhcode-cpp-Team auf GitHub zur Verfügung gestellt wird. Ziel ist es, Entwicklern ein kostengünstiges, effizientes Tool für das Training von Modellen auf Basis von End-to-End Reinforcement Learning zur Verfügung zu stellen. Das Projekt ist inspiriert von DeepSeek-R1 und open-r1 und konzentriert sich auf den Aufbau von...

OpenManus-RL:微调大模型强化智能体推理与决策能力-首席AI分享圈

OpenManus-RL: Feinabstimmung großer Modelle zur Verbesserung der intelligenten Entscheidungsfindung im Körper

Allgemeine Einführung OpenManus-RL ist ein Open-Source-Projekt, das gemeinsam von UIUC-Ulab und dem OpenManus-Team der MetaGPT-Community entwickelt wurde und auf GitHub gehostet wird. Das Projekt verbessert die Argumentations- und Entscheidungsfähigkeiten von Large Language Model (LLM)-Intelligenzen durch Reinforcement Learning (RL)-Techniken, basierend auf Deepseek-R1, QwQ-32B ...

TPO-LLM-WebUI:输入问题即可实时训练模型输出结果的AI框架-首席AI分享圈

TPO-LLM-WebUI: Ein KI-Framework, in das Sie Fragen eingeben können, um ein Modell in Echtzeit zu trainieren und die Ergebnisse auszugeben.

Umfassende Einführung TPO-LLM-WebUI ist ein innovatives Projekt, das von Airmomo auf GitHub zur Verfügung gestellt wird und die Echtzeit-Optimierung von Large Language Models (LLMs) über eine intuitive Weboberfläche ermöglicht. Es nutzt das TPO-Framework (Test-Time Prompt Optimisation), um sich von dem langwierigen Prozess der traditionellen Feinabstimmung vollständig zu verabschieden...

Open-Reasoner-Zero:开源大规模推理强化学习训练平台-首席AI分享圈

Open-Reasoner-Zero: Open-Source-Plattform für großangelegtes Reasoning Reinforcement Learning Training

Allgemeine Einführung Open-Reasoner-Zero ist ein Open-Source-Projekt, das sich auf die Forschung im Bereich Reinforcement Learning (RL) konzentriert und vom Open-Reasoner-Zero-Team auf GitHub entwickelt wurde. Es zielt darauf ab, den Forschungsprozess im Bereich der künstlichen Intelligenz zu beschleunigen, indem es ein effizientes, skalierbares und einfach zu verwendendes Trainingsframework bereitstellt, insbesondere für die...

中文基于满血 DeepSeek-R1 蒸馏数据集,支持中文R1蒸馏SFT数据集-首席AI分享圈

Chinesischer Vollblut-DeepSeek-R1-Destillationsdatensatz, unterstützt chinesischen R1-Destillations-SFT-Datensatz

Umfassende Einführung Der chinesische DeepSeek-R1-Destillationsdatensatz ist ein chinesischer Open-Source-Datensatz mit 110.000 Daten, der zur Unterstützung der Forschung im Bereich maschinelles Lernen und Verarbeitung natürlicher Sprache entwickelt wurde. Der Datensatz wird vom NLP-Team von Cong Liu veröffentlicht und enthält nicht nur mathematische Daten, sondern auch eine große Anzahl allgemeiner Datentypen, wie z. B. logische Schlussfolgerungen...

ColossalAI:提供高效大规模AI模型训练解决方案-首席AI分享圈

ColossalAI: Effiziente Lösungen für das Training von KI-Modellen in großem Maßstab bereitstellen

Umfassende Einführung ColossalAI ist eine Open-Source-Plattform, die von HPC-AI Technologies entwickelt wurde, um eine effiziente und kostengünstige Lösung für das Training und die Inferenz umfangreicher KI-Modelle zu bieten. Durch die Unterstützung mehrerer paralleler Strategien, heterogener Speicherverwaltung und Training mit gemischter Genauigkeit ist ColossalAI in der Lage, das Training und die Inferenz von Modellen erheblich zu reduzieren...

Kiln:简单的LLM模型微调和数据合成工具,0代码基础微调自己的小模型-首席AI分享圈

Kiln: Einfaches LLM-Modell-Feinabstimmung und Datensynthesewerkzeug, 0-Code-Basis zur Feinabstimmung Ihrer eigenen Mini-Modelle!

Umfassende Einführung Kiln ist ein Open-Source-Tool, das sich auf die Feinabstimmung von Large Language Models (LLMs), die Erzeugung synthetischer Daten und die Zusammenarbeit von Datensätzen konzentriert. Es bietet eine intuitive Desktop-Anwendung mit Unterstützung für Windows, MacOS und Linux, die es Benutzern ermöglicht, Modelle wie Llama, GPT4o und Mixtral ohne Code zu implementieren...

Maestro:简化主流开源视觉语言模型微调过程的工具-首席AI分享圈

Maestro: ein Tool zur Vereinfachung des Prozesses der Feinabstimmung von Modellen der gängigen visuellen Open-Source-Sprachen

Umfassende Einführung Maestro ist ein von Roboflow entwickeltes Tool, das den Prozess der Feinabstimmung multimodaler Modelle vereinfacht und beschleunigt, so dass jeder seine eigenen visuellen Makromodelle trainieren kann. Es bietet fertige Rezepte für die Feinabstimmung beliebter visueller Sprachmodelle (VLMs) wie Florence-2, PaliGemma ...

de_DEDeutsch