Allgemeine Einführung
llamafile ist ein Werkzeug des Mozilla Builders-Projekts, das den Einsatz und Betrieb des Large Language Model (LLM) vereinfachen soll. Durch die Kombination der lama.cpp In Verbindung mit Cosmopolitan Libc vereinfacht llamafile den komplexen LLM-Bereitstellungsprozess zu einer einzigen ausführbaren Datei, die lokal auf einer Vielzahl von Betriebssystemen ohne Installation ausgeführt werden kann. Das Tool unterstützt nicht nur Textdialoge, sondern verarbeitet auch Bildeingaben, um den Datenschutz zu gewährleisten.
Funktionsliste
- Einzelner DateibetriebLLM: Packt das LLM-Modell und die Laufzeitumgebung in eine einzige ausführbare Datei.
- Plattformübergreifende KompatibilitätWindows, macOS, Linux, FreeBSD, OpenBSD und NetBSD werden unterstützt.
- lokaler BetriebEs ist keine Internetverbindung erforderlich und die gesamte Datenverarbeitung erfolgt lokal, um Datenschutz und Sicherheit zu gewährleisten.
- multimodale UnterstützungUnterstützt Text- und Bildeingaben und bietet umfangreiche interaktive Funktionen.
- OpenAI API-kompatibelBietet eine mit der OpenAI-API kompatible Schnittstelle zur einfachen Integration in bestehende Anwendungen.
- hohe LeistungOptimierter Kernel für Matrixmultiplikation für schnelleren Betrieb auf CPU und GPU.
- Open-Source-ProjektOffener Quellcode, aktive Beiträge der Gemeinschaft, ständige Aktualisierungen und Optimierungen.
Hilfe verwenden
Installation und Betrieb
- Lamafile herunterladen: Zugang GitHub-Seite Laden Sie die neueste Version von llamafile herunter.
- Delegation von Exekutivbefugnissen(für Benutzer von macOS, Linux und BSD):
chmod +x pfad/zu/llamafile
- llamafile ausführen::
- Für Benutzer von macOS, Linux und BSD:
. /pfad/zu/llamafile
- Für Windows-Benutzer: Benennen Sie die Datei um in
.exe
Suffix und ausführen:. \path\to\llamafile.exe
- Für Benutzer von macOS, Linux und BSD:
Funktion Betrieb
- Starten der WebschnittstelleNach dem Start von llamafile öffnet der Browser automatisch einen Chat-Bildschirm (falls nicht, besuchen Sie ihn bitte manuell).
http://127.0.0.1:8080/
). - Verwendung der OpenAI-API-Schnittstellellamafile: llamafile bietet eine Schnittstelle, die mit der OpenAI-API kompatibel ist und gängige API-Anwendungsfälle unterstützt. Sie kann mit den folgenden Befehlen aufgerufen werden:
curl http://localhost:8080/v1/chat/completions -H "Content-Type: application/json" -d '{ "model": "LLaMA_CPP", "messages": [{"role": "user", "content": "Hallo", "Welt! "messages": [{"role": "user", "content": "Hallo, Welt!"}] }'
- BildeingabeBilder hochladen und Fragen dazu stellen, zum Beispiel:
curl -X POST http://localhost:8080/v1/images -F "image=@path/to/image.jpg" -F "prompt=Describe this image"
- Kommandozeilenmodus: llamafile unterstützt auch den Kommandozeilenmodus für skriptgesteuerte Operationen:
. /pfad/zu/llamafile --cli -p "Ihre Eingabeaufforderung hier"
allgemeine Probleme
- KompetenzfragenWenn Sie Probleme mit den Zugriffsrechten haben, stellen Sie sicher, dass die Datei Ausführungsrechte hat (verwenden Sie die
chmod +x
(Befehl). - Begrenzung der DateigrößeWindows-Benutzer sollten beachten, dass die Größe einer einzelnen ausführbaren Datei 4 GB nicht überschreiten darf, und dass externe Gewichtsdateien verwendet werden können, um dieses Problem zu lösen.
- Abhängigkeitsfrage: macOS-Benutzer müssen Xcode installieren Befehl Line Tools, Linux-Benutzer müssen möglicherweise das CUDA SDK oder ROCm SDK installieren, um die GPU-Beschleunigung zu unterstützen.