AI Personal Learning
und praktische Anleitung
Ressource Empfehlung 1

VimLM: Nativer LLM-gesteuerter Vim-Programmierassistent, intelligente Programmierung für sicheres Offline

Allgemeine Einführung

VimLM ist ein Vim-Plugin, das einen Code-Assistenten bereitstellt, der durch das native LLM (Large Language Model) gesteuert wird. Indem es mit dem nativen LLM-Modell durch Vim-Befehle interagiert, erhält es automatisch den Code-Kontext, um den Nutzern bei der Code-Bearbeitung in Vim zu helfen. Inspiriert von GitHub Copilot und Cursor, integriert VimLM kontextbezogenes Code-Verständnis, Code-Zusammenfassung und KI-unterstützte Funktionalität direkt in den Vim-Workflow. VimLM unterstützt eine breite Palette von MLX-kompatiblen Modellen mit intuitiver Tastenbindung und Split-Screen-Antwort, wodurch sichergestellt wird, dass die Benutzer in Offline-Umgebungen ohne API-Aufrufe oder Datenlecks sicher arbeiten können.

VimLM: Nativer LLM-gesteuerter Vim-Code-Assistent zur Verbesserung der Code-Effizienz-1


 

Funktionsliste

  • modellunabhängigMLX: Verwendung eines beliebigen MLX-kompatiblen Modells über die Konfigurationsdatei
  • Vim Native BenutzererfahrungIntuitive Tastenkombinationen und Split-Screen-Reaktion
  • tiefes kontextuelles VerständnisCode-Kontext aus der aktuellen Datei, visuellen Auswahlen, referenzierten Dateien und der Projektverzeichnisstruktur abrufen
  • Dialogkodierung: Iterative Optimierung durch nachfolgende Abfragen
  • Offline-SicherheitVollständige Offline-Nutzung, keine API-Aufrufe oder Datenverluste erforderlich
  • Code-Extraktion und ErsetzungEinfügen: Fügt einen Codeblock aus der Antwort in den Auswahlbereich ein.
  • Externer Kontext Ergänzungen: Fügen Sie eine externe Datei oder einen externen Ordner mit dem Befehl !include in den Kontext ein.
  • Erstellung von ProjektdateienGenerieren von Projektdateien mit dem Befehl !deploy.
  • Die Antwort wird weiterhin generiert: Setzen Sie die Erzeugung der unterbrochenen Antwort mit dem Befehl !continue fort.
  • Fortsetzung des Themas: Fortsetzen des aktuellen Threads mit dem Befehl !followup.

 

Hilfe verwenden

Ablauf der Installation

  1. Stellen Sie sicher, dass Python 3.12.8 auf Ihrem System installiert ist.
  2. Installieren Sie VimLM mit pip:
   pip install vimlm

Grundlegende Verwendung

  1. Vom Normalmodus::
    • PresseStrg-lFügt dem Kontext die aktuelle Zeile und Datei hinzu.
    • Beispiel-Hinweis: "Regulärer Ausdruck zum Entfernen von HTML-Tags aus item.content".
  2. Vom visuellen Modus::
    • Wählen Sie den Codeblock aus und drücken SieStrg-lFügt den ausgewählten Block und die aktuelle Datei zum Kontext hinzu.
    • Beispieltipp: "Konvertieren Sie diesen Code in die async/await-Syntax".
  3. Nachfassender Dialog::
    • PresseStrg-j: Fortsetzung des aktuellen Themas.
    • Beispiel für eine Folgemaßnahme: "Wechsel zu Manifest V3".
  4. Code-Extraktion und Ersetzung::
    • PresseStrg-pEinfügen: Fügt einen Codeblock aus der Antwort in den zuletzt ausgewählten Bereich (normaler Modus) oder den aktiven Auswahlbereich (visueller Modus) ein.
    • Beispiel-Workflow: Wählen Sie ein Stück Code im visuellen Modus aus, drücken Sie dieStrg-lbei der Aufforderung "Konvertiere diesen Code in die async/await-Syntax", und drücken Sie dann dieStrg-pErsetzen Sie den ausgewählten Code.
  5. Inline-Befehl::
    • !include: Externen Kontext hinzufügen.
      • Beispiel: "AJAXify this application !include ~/scrap/hypermedia-applications.summ.md".
    • !deployGenerieren Sie die Projektdatei.
      • Beispiel: "REST-API-Endpunkt erstellen !deploy . /api".
    • !weiter: Generieren Sie weiterhin Antworten.
      • Beispiel: "Zusammenfassung !include large-file.txt !continue 5000".
    • !Weiterverfolgung: Fortsetzung des aktuellen Themas.
      • Beispiel: "Eine Chrome-Erweiterung erstellen".

Detaillierte Vorgehensweise

  1. Hinzufügen von Kontext::
    • Im Normalmodus drücken SieStrg-lFügt dem Kontext die aktuelle Zeile und Datei hinzu.
    • Wählen Sie im visuellen Modus den Codeblock aus und drücken Sie dieStrg-lFügt den ausgewählten Block und die aktuelle Datei zum Kontext hinzu.
  2. Code generieren::
    • Drücken Sie im Normalmodus oder im visuellen ModusStrg-lAufforderung zur Codegenerierung.
    • PresseStrg-pFügen Sie den generierten Code in den Auswahlbereich ein.
  3. Nachfassender Dialog::
    • PresseStrg-jSetzen Sie den aktuellen Thread zur iterativen Optimierung fort.
  4. Hinzufügen eines externen Kontexts::
    • ausnutzen!includeum dem Kontext eine externe Datei oder einen externen Ordner hinzuzufügen.
    • Beispiel: "AJAXify this application !include ~/scrap/hypermedia-applications.summ.md".
  5. Projektdateien generieren::
    • ausnutzen!deployBefehl, um die Projektdatei zu erzeugen.
    • Beispiel: "REST-API-Endpunkt erstellen !deploy . /api".
  6. Fortsetzung der Erstellung der Antwort::
    • ausnutzen!weiterBefehl weiterhin die unterbrochene Antwort erzeugt.
    • Beispiel: "Zusammenfassung !include large-file.txt !continue 5000".
  7. Fortsetzung des Themas::
    • ausnutzen!Weiterverfolgungum den aktuellen Thread fortzusetzen.
    • Beispiel: "Eine Chrome-Erweiterung erstellen".
Tools herunterladen
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " VimLM: Nativer LLM-gesteuerter Vim-Programmierassistent, intelligente Programmierung für sicheres Offline

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)