AI Personal Learning
und praktische Anleitung

Einsatz eines personalisierten "kleinen" Chat-Tools für Low-Cost-Computer

Warum ein privates "Mini"-Modell-Chat-Tool einsetzen?

Viele Menschen haben ChatGPT, Wisdom Spectrum, Beanbag, Claude und andere hervorragende große Sprachmodelle verwendet, und haben die Notwendigkeit, in der Tiefe zu verwenden, wird auch kaufen Dritten kostenpflichtige Dienste, nachdem alle, sie sind sehr hervorragende Leistung. Zum Beispiel ist mein Hauptarbeitsszenario, Artikel zu schreiben, dann werde ich Claude wählen.

Obwohl ich Claude gerne benutze, verwende ich es wirklich täglich und häufig? Die Antwort ist natürlich nein!


Schwellenwerte wie Nutzungsgrenzen, Preisfaktoren, Netzprobleme usw. verringern natürlich die Häufigkeit der Nutzung in unnötigen Situationen. -Wenn ein Werkzeug nicht in jeder Umgebung "mitgenommen und benutzt" werden kann, dann stimmt etwas nicht mit ihm.

In diesem Fall könnte ein "kleines" Modell die bessere Wahl sein, warum ist das so?

Low-End-Computer setzen eine Reihe von personalisierten

 

 

Merkmale des "kleinen" Modells

Gemma2, llama3.1:8b, qwen2:7b sind klein genug für den täglichen Gebrauch, mit 32k langen kontextuellen Ein- und Ausgaben, die meisten Befehle werden befolgt, chinesischer Ausdruck, Beantwortung von Fragen, alle sind gut, und es gibt keine Grenze von 2.000 Wörtern für "Wenxin Yiyin" Typ Produkte. Die Einschränkungen... Für den täglichen Gebrauch reicht es aus, und wir werden überlegen, ob wir uns für besondere Aufgaben spezialisieren. Die Vorteile der Miniaturen sind wie folgt:

  • Unterstützung für Kontextgrößen, die nicht kleiner (oder sogar größer) sind als das größere Modell
  • Alltägliche Schreibaufgaben ohne minderwertigen Output
  • unbegrenzte Nutzung
  • Für einen einfachen Vergleich können mehrere Miniaturen gleichzeitig Antworten ausgeben.
  • Schnellere Ausführung

 

Was ist ein privater Einsatz?

Eine private Chat-WEB-Schnittstelle für eine einfache Anpassung und freien Zugang zu "kleinen" Modellen.

Die klassischste Lösung ist der lokale Einsatz von Ollama+Open WebUI, wobei ersteres für die Ausführung der Miniaturen auf dem lokalen Computer zuständig ist und letzteres die Chat-Schnittstelle hostet. Erwägen Sie Extranets für die jederzeitige und ortsunabhängige Nutzung dercloudflarevielleichtcpolarOrdnen Sie die Adresse einem externen Netzwerk zu (suchen Sie selbst nach dem Tutorial).

 

Blickwinkel

  • Chat-Daten sind lokal und privat
  • Flexibilität bei der Anpassung der lokalen Modelle

Nachteile

  • Schwierig, dauerhaft zu laufen (Sie müssen Ihren Computer immer ausschalten, oder?) Schwierige Veröffentlichung in einem Extranet
  • Hohe Anforderungen an die Computer-Hardware

 

zu behandelnde Frage

Es sind die Unzulänglichkeiten, die wir zu beheben versuchen:

1. die eingesetzte KI-Chat-Schnittstelle muss in einem Extranet mit stabilen Zugangs-URLs veröffentlicht werden, damit sie überall und jederzeit genutzt werden kann

(2) Computer-Hardware-Schwelle ist vor allem die Verwendung von Ollama, um das Modell lokal laufen, geändert, um bekannte Hersteller von API-Diensten werden kann, ist der Schutz der Privatsphäre relativ gut und frei. (Allgemeine Computer lokal kann bis kleine Modelle laufen, hat das Netzwerk eine kostenlose API)

 

Optimales Programm

1. lokaler/cloud-freier Einsatz von Doceker Offene WebUI + Zugang zu "kleinen" Modell-APIs

Nur für den lokalen Gebrauch, die Computer-Hardware muss nur in der Lage sein, doceker auszuführen

2. selbständige Entwicklung/Nutzung von NextChat mit drei Parteien + Zugang zu "kleinen" Modell-APIs

Für die Selbstbereitstellung von NextChat ist ein eigener Domänenname erforderlich, und es besteht die Gefahr, dass Ihre Schlüssel durch die Verwendung eines NextChat-Dreiparteiensystems gefährdet werden.

 

Dieser Einsatzplan ist nur für erfahrene Leute zu bedienen, unerfahrene weiß nicht empfohlen, eine gute Nutzung von ausgereiften Produkten, oder auftretende abnorme Probleme Verzögerung ist es nicht wert.

 

Optimale Einsatzmöglichkeit 1

 

1. der Einsatz von Doceker

Lokal: lokaler Einsatz von doceker tutorials Suche für sich selbst

Cloud: kostenlose Doceker-Ressourcen in der Cloud, bitte selbst suchen, hier verwende ich Koyeb. (Intranet nicht direkt zugänglich, erfordert Wissenschaft und Technologie)

 

2. die Bereitstellung von Open WebUI in doceker

Lokal: DetailsLesen Sie das DokumentDie folgenden Installationsbefehle werden empfohlen (halten Sie sie auf dem neuesten Stand)

docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

 

Cloud: RegistrierungKoyebKlicken Sie anschließend auf Dienst erstellen und geben Sie den folgenden Befehl ein

ghcr.io/open-webui/open-webui:main

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

3. starten WebUI öffnen

Lokaler Start, Standard-Zugangsadresse: http://localhost:3000/

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

Der Start in der Cloud, nachdem die Bereitstellung von Koyeb abgeschlossen ist, kann hier angeklickt werden (der Nachteil ist, dass dieser Domänenname nicht direkt über das Intranet zugänglich ist und die Bindung des Domänennamens die Eröffnung eines kostenpflichtigen Kontos erfordert)

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

Nach dem Start registrieren Sie ein Konto, standardmäßig ist das erste registrierte Konto das Administratorkonto. Bereits registriert, so dass nur der Login-Bildschirm, der erste Besuch können Sie die "Registrierung" Portal zu sehen

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

4. eine kostenlose "kleine" Modell-API beantragen

OpenRouter wird empfohlen, und ich schreibe seit einem Jahr Romane mit seinen kostenlosen Modellen. Hier ist eine Erklärung, wie man die Modell-APIs von OpenRouter erhält

PS: Inländische kostenlose API-Anbieter für kleine Modelle: Silicon Flow

 

4.1 Erstellen eines KEY

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

Kostengünstige Computer setzen eine Reihe von privat genutzten

Sie erhalten eine Zeichenfolge, die mit sk- beginnt, dies ist KEY, bitte kopieren Sie sie und speichern Sie sie lokal, Sie können sie nicht erneut kopieren, nachdem die Seite geschlossen wurde.

 

4.2 Bestätigung der Liste der freien Modelle

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

4.3 Abrufen der API-Anforderungs-URL(math.) Gattung

Gehen Sie auf eine beliebige Modellseite, um sie zu sehen, im Allgemeinen: https://openrouter.ai/api/v1/chat/completions

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

5. das Konfigurationsmodell Open WebUI eingeben

Beachten Sie, dass Sie mit "4" bestätigen, dass der Zugriff auf die Schnittstelle erfolgreich war, bevor Sie auf "Speichern" klicken.

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

6) Konfigurieren Sie das Standardmodell

Mehrere freie Modelle können ausgewählt werden

Die Verwendung von bezahlten Modellen führt zur Deaktivierung des Kontos.

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

Klicken Sie auf Voreinstellungen, um häufig verwendete Modelle zu speichern

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

7. den Versuch eines ersten Dialogs

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

 

Optimale Einsatzmöglichkeit 2

 

1. die Cloud-Bereitstellung von NextChat

Kostenlose Cloud-Bereitstellung mit einem Klick, sehen Sie sich die Hilfe selbst an: https://github.com/ChatGPTNextWeb/ChatGPT-Next-Web

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

(2) Hier wird der erste Einsatz von Deploy (vercel) verwendet.

Befolgen Sie einfach das Verfahren, und beachten Sie die folgenden drei Punkte:

  • Lesen Sie die Hilfedokumentation sorgfältig durch und folgen Sie der Anleitung, um Ihr Projekt für die automatische Aktualisierung einzurichten.
  • Konfigurieren Sie die KEY-Variable und das Zugangspasswort während der Vercel-Installation, es wird empfohlen, sie im Voraus zu konfigurieren.
  • Die Bindung eines eigenen Domänennamens ermöglicht den direkten Zugang zu inländischen Netzen.

 

3. die Konfigurationsvariablen

Es ist nicht wie Option 1, die die Modellliste automatisch lesen kann, Sie müssen Ihre eigene freie Modellliste definieren, beachten Sie die Änderung der Schnittstellenadresse

BASE_URL oder OpenAI Endpunkt: Setzen Sie dies auf https://openrouter.ai/api
OPENAI_API_KEY oder OpenAI API Key: Geben Sie Ihren OpenRouter API-Schlüssel hier.
CUSTOM_MODELS oder Benutzerdefinierte Modelle: Geben Sie den Modellnamen so an, wie er in OpenRouter aufgeführt ist.

 

4 Bildschirm zum Abschluss der Bereitstellung

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

5.Verbindlicher Domänenname

Lösung von Zugangsproblemen im Land

 

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

4 Sie können den API KEY eines Modells separat in den Einstellungen konfigurieren.

Kostengünstige Computer setzen eine Reihe von privat genutzten

 

Sie können eineOhMyGPTEine kleine Menge kostenloser GPT4-Credits pro Tag, eine weitere Adresse für den stabilen Zugang zu API KEY (um missbräuchliches Verstecken zu verhindern):

Chef-KI-AustauschkreisDieser Inhalt wurde vom Autor versteckt. Bitte geben Sie den Verifizierungscode ein, um den Inhalt zu sehen.
Captcha:
Bitte beachten Sie diese Website WeChat öffentliche Nummer, Antwort "CAPTCHA, eine Art Challenge-Response-Test (Computer)", erhalten Sie den Verifizierungscode. Suchen Sie in WeChat nach "Chef-KI-Austauschkreis"oder"Looks-AI" oder WeChat, indem Sie die rechte Seite des QR-Codes scannen, können Sie die öffentliche WeChat-Nummer dieser Website aufrufen.

AI Leichtes Lernen

Der Leitfaden für Laien zum Einstieg in die KI

Hilft Ihnen, die Nutzung von KI-Tools kostengünstig und von Null an zu erlernen.KI ist, wie Bürosoftware, eine wesentliche Fähigkeit für jeden. Die Beherrschung von KI verschafft Ihnen einen Vorteil bei der Stellensuche und die Hälfte des Aufwands bei Ihrer zukünftigen Arbeit und Ihrem Studium.

Details ansehen>
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Einsatz eines personalisierten "kleinen" Chat-Tools für Low-Cost-Computer

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)