KI-Programmierwerkzeuge sind in letzter Zeit sehr gefragt, von Cursor, V0, Bolt.new und seit kurzem auch Windsurf.
In diesem Beitrag sprechen wir zunächst über die Open-Source-Lösung Bolt.new, die in nur vier Wochen seit der Markteinführung einen Umsatz von 4 Millionen US-Dollar erzielt hat.
Nicht hilfreich ist die WebsiteGeschwindigkeitsbeschränkungen beim InlandszugangundKontingent an kostenlosen Token ist begrenzt.
Die Aufgabe von Monkey ist es, die Software lokal zu betreiben, damit mehr Menschen sie nutzen können und die KI schneller zum Einsatz kommt.
Die heutige Aktie.Führt Sie durch ein großes Modell mit lokalen Ollama eingesetzt, treibende bolt.newAI Programmierung für AI Token Freiheit.
1. eine Einführung in Bolt.new
Schraube.new ist eine SaaS-basierte KI-Codierungsplattform mit zugrundeliegender LLM-gesteuerter Intelligenz, kombiniert mit WebContainers-Technologie, die die Codierung und Ausführung im Browser ermöglicht, mit Vorteilen wie:
- Unterstützung von Front-End- und Back-End-Entwicklung zur gleichen Zeit.;
- Visualisierung der Projektordnerstruktur.;
- Selbst gehostete Umgebung mit automatischer Installation von Abhängigkeiten (z.B. Vite, Next.js, etc.).;
- Betrieb eines Node.js-Servers von der Bereitstellung bis zur Produktion
Das Ziel von Bolt.new ist es, die Entwicklung von Webanwendungen einem größeren Personenkreis zugänglich zu machen, so dass auch Programmieranfänger ihre Ideen in einfacher natürlicher Sprache umsetzen können.
Das Projekt wurde offiziell als Open-Source-Projekt freigegeben: https://github.com/stackblitz/bolt.new
Die offizielle Open-Source-Software bolt.new bietet jedoch nur eine begrenzte Modellunterstützung, und viele unserer inländischen Partner sind nicht in der Lage, die LLM-API in Übersee aufzurufen.
Es gibt einen Gott in der Gemeinschaft. bolt.new-any-llmDie Unterstützung vor Ort ist vorhanden. Ollama Modell, werfen Sie unten einen Blick auf die Praxis.
2. lokaler Einsatz von Qwen2.5-Code
Vor einiger Zeit hat Ali die Qwen2.5-Coder-Serie von Modellen freigegeben, von denen das 32B-Modell in mehr als zehn Benchmark-Evaluierungen die besten Open-Source-Ergebnisse erzielt hat.
Es verdient es, das leistungsfähigste Open-Source-Modell der Welt zu sein und übertrifft sogar GPT-4o in einer Reihe von Schlüsselfunktionen.
Das Ollama-Modell-Repository ist auch für qwen2.5-coder live:
Ollama ist ein gerätefreundliches Werkzeug für die Bereitstellung großer Modelle.
2.1 Modell-Download
Was die Größe des herunterzuladenden Modells betrifft, so können Sie sie entsprechend Ihrem eigenen Videospeicher wählen, wobei für das 32B-Modell mindestens 24G Videospeicher garantiert sind.
Im Folgenden wird dies anhand des Modells 7b demonstriert:
ollama zieht qwen2.5-coder
2.2 Modelländerungen
Da Ollama standardmäßig maximal 4096 Token ausgibt, ist dies für Codegenerierungsaufgaben eindeutig unzureichend.
Zu diesem Zweck müssen die Modellparameter geändert werden, um die Anzahl der Kontext-Token zu erhöhen.
Erstellen Sie zunächst eine neue Modeldatei und füllen Sie diese aus:
FROM qwen2.5-coder
PARAMETER num_ctx 32768
Dann beginnt die Modellumwandlung:
ollama create -f Modeldatei qwen2.5-coder-extra-ctx
Nach erfolgreicher Konvertierung können Sie sich die Modellliste erneut ansehen:
2.3 Modellläufe
Prüfen Sie schließlich auf der Serverseite, ob das Modell erfolgreich aufgerufen werden kann:
def test_ollama():
url = 'http://localhost:3002/api/chat'
data = {
"Modell": "qwen2.5-coder-extra-ctx",
"messages": [
{ "role": "user", "content": 'Hello'}
],, "stream": False
"stream": False
}
response = requests.post(url, json=data)
wenn response.status_code == 200.
text = response.json()['message']['content']
print(text)
print(text)
print(f'{response.status_code},failed')
Wenn alles in Ordnung ist, können Sie es in bolt.new aufrufen.
3) Bolt.new läuft lokal
3.1 Lokaler Einsatz
Stufe1: Laden Sie bolt.new-any-llm herunter, das lokale Modelle unterstützt:
git clone https://github.com/coleam00/bolt.new-any-llm
Stufe2: Erstellen Sie eine Kopie der Umgebungsvariablen:
cp .env.example .env
Stufe3: Ändern Sie die Umgebungsvariable inOLLAMA_API_BASE_URL
Ersetzen Sie sie durch Ihre eigene:
# Sie müssen diese Umgebungsvariable nur setzen, wenn Sie oLLAMA-Modelle verwenden wollen
# BEISPIEL http://localhost:11434
OLLAMA_API_BASE_URL=http://localhost:3002
Stufe4Abhängigkeiten installieren (mit lokal installiertem Node)
sudo npm install -g pnpm # pnpm muss global installiert werden
pnpm installieren
Stufe5: Ein-Klick-Bedienung
pnpm ausführen dev
Die folgende Ausgabe zeigt an, dass der Startvorgang erfolgreich war:
➜ Lokal: http://localhost:5173/
➜ Netzwerk: verwenden Sie --host, um zu exponieren
➜ Drücken Sie h + enter, um die Hilfe anzuzeigen
3.2 Demonstration der Auswirkungen
Im Browser öffnenhttp://localhost:5173/
Das Modell vom Typ Ollama wird ausgewählt:
Hinweis: Wenn beim ersten Laden das Modell in Ollama nicht angezeigt wird, aktualisieren Sie es ein paar Mal, um zu sehen, wie es aussieht.
Machen wir die Probe aufs Exempel.
Ein webbasiertes Snake-Spiel schreiben
Auf der linken Seite.Ausführung des Prozesses
und auf der rechten Seite ist derCode-Editor
Bereich, unter dem sich dieEndpunkt
Bereich. Das Schreiben von Code, die Installation von Abhängigkeiten und Terminalbefehle werden von AI!
Wenn es auf einen Fehler stößt, geben Sie einfach den Fehler an, führen Sie es erneut aus, und wenn es keinen Fehler gibt, wird die rechte SeiteVorschau
Die Seite wird erfolgreich geöffnet.
Hinweis: Da im Beispiel ein kleines 7b-Modell verwendet wird, können Sie bei Bedarf auch ein 32b-Modell verwenden, was die Wirkung erheblich verbessert.
am Ende schreiben
Dieser Artikel führt Sie durch einen lokalen Einsatz des qwen2.5-Codemodells und steuert erfolgreich das KI-Programmiertool bolt.new.
Verwenden Sie es, um die Front-End-Projekt zu entwickeln ist immer noch recht mächtig, natürlich, um es gut zu nutzen, wissen einige grundlegende Front-und Back-End-Konzepte, wird doppelt so effektiv sein.