AI Personal Learning
und praktische Anleitung

Jan: Open Source Offline-KI-Assistent, ChatGPT-Ersatz, lokale KI-Modelle oder Verbindung zur Cloud-KI

Allgemeine Einführung

Jan ist eine offene Quelle ChatGPT Jan bietet eine umfangreiche Bibliothek von Modellen, die heruntergeladen und offline auf dem Gerät des Benutzers ausgeführt werden können 100%. Es wird von einer Cortex-Engine angetrieben und unterstützt eine breite Palette von Hardware-Plattformen, einschließlich NVIDIA-GPUs und Chips der M-Serie von Apple. Jan bietet eine umfangreiche Bibliothek von Modellen, die Benutzer herunterladen und ausführen können, wie Llama, Gemma und Mistral Jan wird von Cortex angetrieben, einer einbettbaren nativen KI-Engine, die auf jeder Hardware laufen kann, von PCs bis zu Multi-GPU-Clustern.

Jan: Open Source Offline AI Assistent, ChatGPT Alternative, -1


 

Funktionsliste

  • Lokale Ausführung von AI-ModellenUnterstützung für Llama, Gemma, Mistral und viele andere beliebte Modelle.
  • Multi-Engine-UnterstützungKompatibel mit llama.cpp, TensorRT-LLM und vielen anderen Engines.
  • Offline-BetriebEs ist keine Internetverbindung erforderlich und die gesamte Datenverarbeitung erfolgt lokal.
  • ModellbibliothekBietet umfangreiche Funktionen zum Herunterladen und Verwalten von Modellen.
  • Remote AI-VerbindungVerbindung zu Remote-KI-Diensten wie OpenAI, Groq, Cohere und anderen.
  • Lokaler API-Server: Einrichten und Ausführen eines OpenAI-kompatiblen lokalen API-Servers.
  • Höhe kann individuell angepasst werdenUnterstützt die Anpassung von Funktionen durch Erweiterungs-Plug-ins.
  • DatenschutzAlle Daten werden lokal gespeichert und der Benutzer hat die volle Kontrolle über die Daten.

 

Hilfe verwenden

Ablauf der Installation

  1. Herunterladen von: Zugang Jan Offizielle Website vielleicht GitHub-Seite Laden Sie das Installationspaket für Windows, MacOS oder Linux herunter.
  2. Montage::
    • Windows (Computer)Ausführen der heruntergeladenen jan.exe Datei und folgen Sie den Anweisungen, um die Installation abzuschließen.
    • MacOS: Download jan.dmg Datei, öffnen Sie sie mit einem Doppelklick und ziehen Sie Jan in den Ordner Programme.
    • Linux: Download .deb vielleicht .AppImage Datei, installieren Sie es über die Befehlszeile oder führen Sie es direkt aus.

Richtlinien für die Verwendung

  1. eine Anwendung startenWenn die Installation abgeschlossen ist, öffnen Sie die Anwendung Jan.
  2. Modell auswählenWählen Sie das gewünschte KI-Modell in der Modellbibliothek aus und laden Sie es herunter, z. B. Llama, Gemma oder Mistral.
  3. lokaler BetriebWählen Sie das heruntergeladene Modell aus, klicken Sie auf die Schaltfläche "Ausführen" und das Modell wird auf dem lokalen Gerät gestartet.
  4. Verbinden von Remote AIWenn Sie mehr Rechenleistung benötigen, können Sie in den Einstellungen Remote-KI-Dienste wie OpenAI, Groq usw. konfigurieren und mit ihnen verbinden.
  5. Verwendung des API-ServersAktivieren Sie den lokalen API-Server in den Einstellungen, folgen Sie den Aufforderungen zur Konfiguration des API-Schlüssels, und schon können Sie mit OpenAI-kompatiblen APIs entwickeln und testen.
  6. Benutzerdefinierte ErweiterungenBesuchen Sie das Erweiterungszentrum, um die erforderlichen Erweiterungs-Plug-ins herunterzuladen und zu installieren und die Funktionalität von Jan an Ihre Bedürfnisse anzupassen.

Detaillierte Vorgehensweise

  • Modell-Download und Verwaltung::
    1. Öffnen Sie die Anwendung Jan und gehen Sie zur Modellbibliothek.
    2. Durchsuchen Sie die verfügbaren Modelle und klicken Sie zum Herunterladen auf die Schaltfläche "Download".
    3. Wenn der Download abgeschlossen ist, erscheint das Modell in der Liste "Heruntergeladen".
    4. Wählen Sie das Modell aus und klicken Sie auf die Schaltfläche "Ausführen", um das Modell zu starten.
  • Lokale API-Server-Konfiguration::
    1. Gehen Sie auf die Seite "Einstellungen" und suchen Sie die Option "API-Server".
    2. Aktivieren Sie den API-Server und legen Sie den API-Schlüssel fest.
    3. Verwenden Sie die mitgelieferte API-Dokumentation, um mit der Entwicklung zu beginnen, indem Sie die native API aufrufen.
  • Installation von Erweiterungsplugins::
    1. Besuchen Sie das Erweiterungszentrum, um die verfügbaren Erweiterungen zu durchsuchen.
    2. Klicken Sie auf die Schaltfläche "Installieren" und folgen Sie den Anweisungen, um die Installation abzuschließen.
    3. Nach der Installation wird die Erweiterung in der Liste "Installiert" angezeigt.
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Jan: Open Source Offline-KI-Assistent, ChatGPT-Ersatz, lokale KI-Modelle oder Verbindung zur Cloud-KI

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)