AI Personal Learning
und praktische Anleitung

AI Full-Stack-Tool Open Source! Nehmen Sie mit Ollama+Qwen2.5-Code runbolt.new, ein Klick, um eine Website zu generieren!

KI-Programmierwerkzeuge sind in letzter Zeit sehr gefragt, von Cursor, V0, Bolt.new und seit kurzem auch Windsurf.

In diesem Beitrag sprechen wir zunächst über die Open-Source-Lösung Bolt.new, die in nur vier Wochen seit der Markteinführung einen Umsatz von 4 Millionen US-Dollar erzielt hat.


Nicht hilfreich ist die WebsiteGeschwindigkeitsbeschränkungen beim InlandszugangundKontingent an kostenlosen Token ist begrenzt.

Die Aufgabe von Monkey ist es, die Software lokal zu betreiben, damit mehr Menschen sie nutzen können und die KI schneller zum Einsatz kommt.

Die heutige Aktie.Führt Sie durch ein großes Modell mit lokalen Ollama eingesetzt, treibende bolt.newAI Programmierung für AI Token Freiheit.

 

1. eine Einführung in Bolt.new

Schraube.new ist eine SaaS-basierte KI-Codierungsplattform mit zugrundeliegender LLM-gesteuerter Intelligenz, kombiniert mit WebContainers-Technologie, die die Codierung und Ausführung im Browser ermöglicht, mit Vorteilen wie:

  • Unterstützung von Front-End- und Back-End-Entwicklung zur gleichen Zeit.;
  • Visualisierung der Projektordnerstruktur.;
  • Selbst gehostete Umgebung mit automatischer Installation von Abhängigkeiten (z.B. Vite, Next.js, etc.).;
  • Betrieb eines Node.js-Servers von der Bereitstellung bis zur Produktion

Das Ziel von Bolt.new ist es, die Entwicklung von Webanwendungen einem größeren Personenkreis zugänglich zu machen, so dass auch Programmieranfänger ihre Ideen in einfacher natürlicher Sprache umsetzen können.

Das Projekt wurde offiziell als Open-Source-Projekt freigegeben: https://github.com/stackblitz/bolt.new

Die offizielle Open-Source-Software bolt.new bietet jedoch nur eine begrenzte Modellunterstützung, und viele unserer inländischen Partner sind nicht in der Lage, die LLM-API in Übersee aufzurufen.

Es gibt einen Gott in der Gemeinschaft. bolt.new-any-llmDie Unterstützung vor Ort ist vorhanden. Ollama Modell, werfen Sie unten einen Blick auf die Praxis.

 

2. lokaler Einsatz von Qwen2.5-Code

Vor einiger Zeit hat Ali die Qwen2.5-Coder-Serie von Modellen freigegeben, von denen das 32B-Modell in mehr als zehn Benchmark-Evaluierungen die besten Open-Source-Ergebnisse erzielt hat.

Es verdient es, das leistungsfähigste Open-Source-Modell der Welt zu sein und übertrifft sogar GPT-4o in einer Reihe von Schlüsselfunktionen.

Das Ollama-Modell-Repository ist auch für qwen2.5-coder live:

Ollama ist ein gerätefreundliches Werkzeug für die Bereitstellung großer Modelle.

2.1 Modell-Download

Was die Größe des herunterzuladenden Modells betrifft, so können Sie sie entsprechend Ihrem eigenen Videospeicher wählen, wobei für das 32B-Modell mindestens 24G Videospeicher garantiert sind.

Im Folgenden wird dies anhand des Modells 7b demonstriert:

ollama zieht qwen2.5-coder

2.2 Modelländerungen

Da Ollama standardmäßig maximal 4096 Token ausgibt, ist dies für Codegenerierungsaufgaben eindeutig unzureichend.

Zu diesem Zweck müssen die Modellparameter geändert werden, um die Anzahl der Kontext-Token zu erhöhen.

Erstellen Sie zunächst eine neue Modeldatei und füllen Sie diese aus:

FROM qwen2.5-coder
PARAMETER num_ctx 32768

Dann beginnt die Modellumwandlung:

ollama create -f Modeldatei qwen2.5-coder-extra-ctx

Nach erfolgreicher Konvertierung können Sie sich die Modellliste erneut ansehen:

2.3 Modellläufe

Prüfen Sie schließlich auf der Serverseite, ob das Modell erfolgreich aufgerufen werden kann:

def test_ollama():
    url = 'http://localhost:3002/api/chat'
    data = {
        "Modell": "qwen2.5-coder-extra-ctx",
        "messages": [
            { "role": "user", "content": 'Hello'}
        ],, "stream": False
        "stream": False
    }
    response = requests.post(url, json=data)
    wenn response.status_code == 200.
        text = response.json()['message']['content']
        print(text)
    print(text)
        print(f'{response.status_code},failed')

Wenn alles in Ordnung ist, können Sie es in bolt.new aufrufen.

 

3) Bolt.new läuft lokal

3.1 Lokaler Einsatz

Stufe1: Laden Sie bolt.new-any-llm herunter, das lokale Modelle unterstützt:

git clone https://github.com/coleam00/bolt.new-any-llm

Stufe2: Erstellen Sie eine Kopie der Umgebungsvariablen:

cp .env.example .env

Stufe3: Ändern Sie die Umgebungsvariable inOLLAMA_API_BASE_URLErsetzen Sie sie durch Ihre eigene:

# Sie müssen diese Umgebungsvariable nur setzen, wenn Sie oLLAMA-Modelle verwenden wollen
# BEISPIEL http://localhost:11434
OLLAMA_API_BASE_URL=http://localhost:3002

Stufe4Abhängigkeiten installieren (mit lokal installiertem Node)

sudo npm install -g pnpm # pnpm muss global installiert werden
pnpm installieren

Stufe5: Ein-Klick-Bedienung

pnpm ausführen dev

Die folgende Ausgabe zeigt an, dass der Startvorgang erfolgreich war:

➜ Lokal: http://localhost:5173/
➜ Netzwerk: verwenden Sie --host, um zu exponieren
➜ Drücken Sie h + enter, um die Hilfe anzuzeigen

3.2 Demonstration der Auswirkungen

Im Browser öffnenhttp://localhost:5173/Das Modell vom Typ Ollama wird ausgewählt:

Hinweis: Wenn beim ersten Laden das Modell in Ollama nicht angezeigt wird, aktualisieren Sie es ein paar Mal, um zu sehen, wie es aussieht.

Machen wir die Probe aufs Exempel.

Ein webbasiertes Snake-Spiel schreiben

Auf der linken Seite.Ausführung des Prozessesund auf der rechten Seite ist derCode-EditorBereich, unter dem sich dieEndpunktBereich. Das Schreiben von Code, die Installation von Abhängigkeiten und Terminalbefehle werden von AI!

Wenn es auf einen Fehler stößt, geben Sie einfach den Fehler an, führen Sie es erneut aus, und wenn es keinen Fehler gibt, wird die rechte SeiteVorschauDie Seite wird erfolgreich geöffnet.

Hinweis: Da im Beispiel ein kleines 7b-Modell verwendet wird, können Sie bei Bedarf auch ein 32b-Modell verwenden, was die Wirkung erheblich verbessert.

 

am Ende schreiben

Dieser Artikel führt Sie durch einen lokalen Einsatz des qwen2.5-Codemodells und steuert erfolgreich das KI-Programmiertool bolt.new.

Verwenden Sie es, um die Front-End-Projekt zu entwickeln ist immer noch recht mächtig, natürlich, um es gut zu nutzen, wissen einige grundlegende Front-und Back-End-Konzepte, wird doppelt so effektiv sein.

Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " AI Full-Stack-Tool Open Source! Nehmen Sie mit Ollama+Qwen2.5-Code runbolt.new, ein Klick, um eine Website zu generieren!

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)