AI Personal Learning
und praktische Anleitung
豆包Marscode1
Insgesamt 27 Artikel

Tags: lokale Bereitstellung Open Source Big Model Tools

LitServe:快速部署企业级通用AI模型推理服务-首席AI分享圈

LitServe: schnelle Bereitstellung von universellen KI-Modellinferenzdiensten auf Unternehmensebene

Umfassende Einführung LitServe ist eine Open-Source-KI-Modell-Service-Engine von Lightning AI, die auf FastAPI aufbaut und sich auf die schnelle Bereitstellung von Inferenzdiensten für Allzweck-KI-Modelle konzentriert. Es unterstützt ein breites Feld klassischer maschineller Lernmodelle von großen Sprachmodellen (LLMs), visuellen Modellen, Audiomodellen bis hin zu...

Nexa:本地运行的小型多模态AI解决方案-首席AI分享圈

Nexa: eine kleine multimodale KI-Lösung, die lokal läuft

Umfassende Einführung Nexa AI ist eine Plattform, die sich auf multimodale KI-Lösungen konzentriert, die lokal ausgeführt werden. Sie bietet eine breite Palette von KI-Modellen, einschließlich Natural Language Processing (NLP), Computer Vision, Spracherkennung und -generierung (ASR und TTS), die alle lokal auf Geräten ausgeführt werden können, ohne auf die Cloud angewiesen zu sein...

Llama 3.2 Reasoning WebGPU: Ausführen von Llama-3.2 in einem Browser

Allgemeine Einführung Transformers.js ist eine JavaScript-Bibliothek, die von Hugging Face zur Verfügung gestellt wird. Sie wurde entwickelt, um hochmoderne Modelle für maschinelles Lernen direkt im Browser auszuführen, ohne Serverunterstützung. Die Bibliothek ist vergleichbar mit Hugging Face's Transformers-Bibliothek für Python und unterstützt eine Vielzahl von...

Harbor:一键部署本地LLM开发环境,轻松管理和运行AI服务的容器化工具集-首席AI分享圈

Harbor: ein containerisiertes Toolset zur Bereitstellung lokaler LLM-Entwicklungsumgebungen mit einem Klick und zur einfachen Verwaltung und Ausführung von KI-Diensten

Umfassende Einführung Harbor ist ein revolutionäres containerisiertes LLM-Toolset, das sich auf die Vereinfachung der Bereitstellung und Verwaltung von lokalen KI-Entwicklungsumgebungen konzentriert. Es ermöglicht Entwicklern den Start und die Verwaltung aller KI-Dienste, einschließlich LLM-Backends, API-Schnittstellen, Front-End-Schnittstellen usw. mit einem einzigen Klick über eine übersichtliche Befehlszeilenschnittstelle (CLI) und eine Begleit-App...

AI Dev Gallery:Windows本地AI模型开发工具集,端侧模型集成到Windows应用-首席AI分享圈

AI Dev Gallery: Windows Native AI Model Development Toolset, End-Side Model Integration in Windows Anwendungen

Umfassende Einführung Die AI Dev Gallery ist eine Anwendung für KI-Entwicklungstools von Microsoft (derzeit in der öffentlichen Vorschau), die für Windows-Entwickler gedacht ist. Sie bietet eine umfassende Plattform, die Entwicklern hilft, KI-Funktionen einfach in ihre Windows-Anwendungen zu integrieren. Das bemerkenswerteste Merkmal des Tools ist die...

LightLLM:高效的轻量级大语言模型推理和服务框架-首席AI分享圈

LightLLM: Ein effizientes, leichtgewichtiges Rahmenwerk für Reasoning und Bedienung großer Sprachmodelle

Umfassende Einführung LightLLM ist ein Python-basiertes Large Language Model (LLM) Inferenz- und Service-Framework, das für sein schlankes Design, seine einfache Erweiterbarkeit und seine effiziente Leistung bekannt ist. Das Framework nutzt eine Vielzahl bekannter Open-Source-Implementierungen, darunter FasterTransformer, TGI, vLLM und FlashAttention ...

GLM Edge:智谱发布适用于手机、车机和PC平台的端侧大语言模型和多模态理解模型-首席AI分享圈

GLM Edge: Smart Spectrum veröffentlicht End-Side Big Language Models und Multimodal Understanding Models für Mobile, Car und PC Plattformen

Umfassende Einführung GLM-Edge ist eine Reihe von großen Sprachmodellen und multimodalen Verständigungsmodellen, die von der Tsinghua-Universität (Smart Spectrum Light Language) für Endgeräte entwickelt wurden. Diese Modelle umfassen GLM-Edge-1.5B-Chat, GLM-Edge-4B-Chat, GLM-Edge-V-2B und GLM-Edge-V-5B, die sich für Mobiltelefone,...

EXO:利用闲置家用设备运行分布式AI集群,支持多种推理引擎和自动设备发现。-首席AI分享圈

EXO: Betrieb verteilter KI-Cluster unter Verwendung ungenutzter Haushaltsgeräte, Unterstützung mehrerer Inferenz-Engines und automatischer Geräteerkennung.

Allgemeine Einführung Exo ist ein Open-Source-Projekt, das darauf abzielt, einen eigenen KI-Cluster auf alltäglichen Geräten (z.B. iPhone, iPad, Android, Mac, Linux, etc.) zu betreiben. Durch dynamische Modellpartitionierung und automatische Geräteerkennung ist Exo in der Lage, mehrere Geräte in einer einzigen leistungsstarken GPU zu vereinen und mehrere Modelle wie LLaMA, Mis...

LocalAI:开源的本地AI部署方案,支持多种模型架构,WebUI统一管理模型和API-首席AI分享圈

LocalAI: quelloffene Lösungen für den Einsatz von lokaler KI, Unterstützung für mehrere Modellarchitekturen, einheitliche WebUI-Verwaltung von Modellen und APIs

Allgemeine Einführung LocalAI ist eine Open-Source-Alternative für lokale KI, die API-Schnittstellen bietet, die mit OpenAI, Claude und anderen kompatibel sind. Es unterstützt den Betrieb auf Consumer-Hardware, benötigt keine GPU und ist in der Lage, eine breite Palette von Aufgaben wie Text, Audio, Video, Bilderzeugung und Sprache cloning.LocalAI von Ettore ...

llamafile:使用单个文件分发和运行 LLMs,简化LLM部署,跨平台支持LLMs-首席AI分享圈

llamafile: Verteilen und Ausführen von LLMs mit einer einzigen Datei, Vereinfachung der LLM-Bereitstellung, plattformübergreifende Unterstützung für LLMs

Allgemeine Einführung llamafile ist ein Tool des Mozilla Builders-Projekts, das die Bereitstellung und den Betrieb des Large Language Model (LLM) vereinfachen soll. Durch die Kombination von llama.cpp mit Cosmopolitan Libc reduziert llamafile den komplexen LLM-Einsatzprozess auf eine einzige ausführbare Datei,...

Petals:分布式共享GPU运行和微调大语言模型,像BitTorrent网络一样共享GPU资源-首席AI分享圈

Petals: verteilte gemeinsame GPU-Ausführung und Feinabstimmung großer Sprachmodelle, gemeinsame Nutzung von GPU-Ressourcen wie ein BitTorrent-Netzwerk

Allgemeine Einführung Petals ist ein Open-Source-Projekt, das vom BigScience Workshop entwickelt wurde, um große Sprachmodelle (Large Language Models, LLMs) über einen verteilten Rechenansatz auszuführen. Benutzer können LLMs zu Hause mit Consumer-GPUs oder Google Colab, wie Llama 3.1, Mixtral, F...

Aphrodite Engine: eine effiziente LLM-Inferenzmaschine, die mehrere Quantisierungsformate und verteilte Inferenz unterstützt.

Umfassende Einführung Die Aphrodite Engine ist die offizielle Backend-Engine für PygmalionAI. Sie wurde entwickelt, um einen Inferenz-Endpunkt für PygmalionAI-Sites bereitzustellen und die schnelle Bereitstellung von Hugging-Face-kompatiblen Modellen zu unterstützen. Die Engine nutzt die Paged Attention-Technologie von vLLM für effizientes K/V-Management und kontinuierliche Stapelverarbeitung,...

llama.cpp:高效推理工具,支持多种硬件,轻松实现LLM推理-首席AI分享圈

llama.cpp: effizientes Inferenzwerkzeug, unterstützt mehrere Hardware, einfach zu implementierende LLM-Inferenz

Allgemeine Einführung llama.cpp ist eine in reinem C/C++ implementierte Bibliothek, die den Inferenzprozess für Large Language Models (LLMs) vereinfachen soll. Sie unterstützt eine breite Palette von Hardware-Plattformen, einschließlich Apple Silicon, NVIDIA GPUs und AMD GPUs, und bietet eine Vielzahl von Quantisierungsoptionen, um die Inferenzgeschwindigkeit zu verbessern und den Speicherverbrauch zu reduzieren. Das Projekt ...

Hyperspace(aiOS):分布式AI算力共享网络,aiOS生成式浏览器,深度知识智能体-首席AI分享圈

Hyperspace (aiOS): verteiltes KI-Netzwerk zur gemeinsamen Nutzung von Arithmetik, generativer aiOS-Browser, tiefe Wissensintelligenz

Allgemeine Einführung Hyperspace ist ein innovativer generativer Browser (aiOS), der auf dem weltweit größten Peer-to-Peer-KI-Netzwerk basiert und den Nutzern leistungsstarke Werkzeuge für tiefgreifende Recherchen und Analysen zur Verfügung stellen soll. Durch die Integration eines breiten Spektrums von KI-Modellen und Datenquellen ermöglicht Hyperspace den Nutzern die schnelle Generierung von Informationsnetzwerken unter Verwendung hochwertiger Quellen...

de_DEDeutsch