AI Personal Learning
und praktische Anleitung
讯飞绘镜

Jan: Open Source Offline-KI-Assistent, ChatGPT-Ersatz, lokale KI-Modelle oder Verbindung zur Cloud-KI

Allgemeine Einführung

Jan ist eine offene Quelle ChatGPT Jan bietet eine umfangreiche Bibliothek von Modellen, die heruntergeladen und offline auf dem Gerät des Benutzers ausgeführt werden können 100%. Es wird von einer Cortex-Engine angetrieben und unterstützt eine breite Palette von Hardware-Plattformen, einschließlich NVIDIA-GPUs und Chips der M-Serie von Apple. Jan bietet eine umfangreiche Bibliothek von Modellen, die Benutzer herunterladen und ausführen können, wie Llama, Gemma und Mistral Jan wird von Cortex angetrieben, einer einbettbaren nativen KI-Engine, die auf jeder Hardware laufen kann, von PCs bis zu Multi-GPU-Clustern.

Jan:开源离线AI助手,ChatGPT 替代品,-1


 

Funktionsliste

  • Lokale Ausführung von AI-ModellenUnterstützung für Llama, Gemma, Mistral und viele andere beliebte Modelle.
  • Multi-Engine-UnterstützungKompatibel mit llama.cpp, TensorRT-LLM und vielen anderen Engines.
  • Offline-BetriebEs ist keine Internetverbindung erforderlich und die gesamte Datenverarbeitung erfolgt lokal.
  • ModellbibliothekBietet umfangreiche Funktionen zum Herunterladen und Verwalten von Modellen.
  • Remote AI-VerbindungVerbindung zu Remote-KI-Diensten wie OpenAI, Groq, Cohere und anderen.
  • Lokaler API-Server: Einrichten und Ausführen eines OpenAI-kompatiblen lokalen API-Servers.
  • Höhe kann individuell angepasst werdenUnterstützt die Anpassung von Funktionen durch Erweiterungs-Plug-ins.
  • DatenschutzAlle Daten werden lokal gespeichert und der Benutzer hat die volle Kontrolle über die Daten.

 

Hilfe verwenden

Einbauverfahren

  1. Herunterladen von: Zugang Jan Offizielle Website vielleicht GitHub-Seite Laden Sie das Installationspaket für Windows, MacOS oder Linux herunter.
  2. Montage::
    • Windows (Computer)Ausführen der heruntergeladenen jan.exe Datei und folgen Sie den Anweisungen, um die Installation abzuschließen.
    • MacOS: Download jan.dmg Datei, öffnen Sie sie mit einem Doppelklick und ziehen Sie Jan in den Ordner Programme.
    • Linux: Download .deb vielleicht .AppImage Datei, installieren Sie es über die Befehlszeile oder führen Sie es direkt aus.

Leitlinien für die Verwendung

  1. eine Anwendung startenWenn die Installation abgeschlossen ist, öffnen Sie die Anwendung Jan.
  2. Modell auswählenWählen Sie das gewünschte KI-Modell in der Modellbibliothek aus und laden Sie es herunter, z. B. Llama, Gemma oder Mistral.
  3. lokaler BetriebWählen Sie das heruntergeladene Modell aus, klicken Sie auf die Schaltfläche "Ausführen" und das Modell wird auf dem lokalen Gerät gestartet.
  4. Verbinden von Remote AIWenn Sie mehr Rechenleistung benötigen, können Sie in den Einstellungen Remote-KI-Dienste wie OpenAI, Groq usw. konfigurieren und mit ihnen verbinden.
  5. Verwendung des API-ServersAktivieren Sie den lokalen API-Server in den Einstellungen, folgen Sie den Aufforderungen zur Konfiguration des API-Schlüssels, und schon können Sie mit OpenAI-kompatiblen APIs entwickeln und testen.
  6. Benutzerdefinierte ErweiterungenBesuchen Sie das Erweiterungszentrum, um die erforderlichen Erweiterungs-Plug-ins herunterzuladen und zu installieren und die Funktionalität von Jan an Ihre Bedürfnisse anzupassen.

Detaillierte Vorgehensweise

  • Modell-Download und Verwaltung::
    1. Öffnen Sie die Anwendung Jan und gehen Sie zur Modellbibliothek.
    2. Durchsuchen Sie die verfügbaren Modelle und klicken Sie zum Herunterladen auf die Schaltfläche "Download".
    3. Wenn der Download abgeschlossen ist, wird das Modell in der Liste "Heruntergeladen" angezeigt.
    4. Wählen Sie das Modell aus und klicken Sie auf die Schaltfläche "Ausführen", um das Modell zu starten.
  • Lokale API-Server-Konfiguration::
    1. Gehen Sie auf die Seite "Einstellungen" und suchen Sie die Option "API-Server".
    2. Aktivieren Sie den API-Server und legen Sie den API-Schlüssel fest.
    3. Verwenden Sie die mitgelieferte API-Dokumentation, um mit der Entwicklung zu beginnen, indem Sie die native API aufrufen.
  • Installation von Erweiterungsplugins::
    1. Besuchen Sie das Erweiterungszentrum, um die verfügbaren Erweiterungen zu durchsuchen.
    2. Klicken Sie auf die Schaltfläche "Installieren" und folgen Sie den Anweisungen, um die Installation abzuschließen.
    3. Nach der Installation wird die Erweiterung in der Liste "Installiert" angezeigt.
Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " Jan: Open Source Offline-KI-Assistent, ChatGPT-Ersatz, lokale KI-Modelle oder Verbindung zur Cloud-KI
de_DEDeutsch