Allgemeine Einführung
FlowDown-App ist ein leichtgewichtiger und effizienter KI-Dialog-Client, der von einem Team von Entwicklern unter Verwendung von Swift und UIKit entwickelt wurde und darauf abzielt, Benutzern ein schnelles und reibungsloses intelligentes Dialogerlebnis zu bieten. Die App ist unterteilt in eine Standardversion (FlowDown) und eine Community-Version (FlowDown Community). FlowDown unterstützt alle OpenAI-kompatiblen Serviceschnittstellen, ermöglicht den Nutzern den Zugriff auf ihre eigenen Large Language Models (LLMs) und wurde mit Blick auf den Datenschutz entwickelt, um die Datensicherheit zu gewährleisten. Datensicherheit gewährleisten. Das Highlight von FlowDown ist das extrem schnelle Text-Rendering für ein nahtloses Dialogerlebnis.
FlowDown macOS-Schnittstelle
FlowDown IOS-Schnittstelle
Funktionsliste
- Extrem schnelle TextwiedergabeDialogtext wird nahezu verzögerungsfrei angezeigt, was ein reibungsloses Erlebnis ermöglicht.
- Markdown-UnterstützungAusgabe im Rich-Text-Format zum einfachen Lesen und Organisieren.
- Universelle KompatibilitätAlle OpenAI-kompatiblen Dienstanbieter werden unterstützt.
- Datenschutz durch DesignBenutzerdaten werden standardmäßig nicht gesammelt, der Dialog bleibt lokal.
- Auto-Chat-KopfzeileIntelligente Erstellung von Dialogtiteln zur Verbesserung der Verwaltungseffizienz.
- Kommt mit LLM-UnterstützungDie Standardversion unterstützt offline LLM (basierend auf MLX) und visuelles LLM.
- Hochladen von AnhängenDie Standardversion unterstützt das Hochladen von Dateien zur Interaktion mit AI.
- Suche im InternetStandardversion: Die Standardversion verfügt über eine integrierte Suchfunktion, um den Zugang zu Informationen zu erleichtern.
Hilfe verwenden
Ablauf der Installation
FlowDown ist auf zwei Arten erhältlich: Laden Sie die Standardversion aus dem App Store herunter, oder holen Sie sich den Quellcode der Community Edition von GitHub. Hier sind die detaillierten Installationsschritte:
Standard (FlowDown)
- Systemanforderungen::
- iOS 16.0 oder höher (unterstützt iPhone und iPad).
- macOS 13.0 oder höher.
- Apps herunterladen::
- Öffnen Sie den App Store und suchen Sie nach "FlowDown".
- Klicken Sie auf die Schaltfläche "Get", um den Download und die Installation abzuschließen.
- eine Anwendung starten::
- Nach der Installation klicken Sie auf das App-Symbol, um es zu öffnen, und das kostenlose Cloud-Modell wird automatisch zum ersten Mal konfiguriert.
Gemeinschaftsausgabe (FlowDown Community)
- SystemanforderungenStandard: Wie Standard, siehe GitHub für Abhängigkeiten.
- Quellcode herunterladen::
- Besuchen Sie https://github.com/Lakr233/FlowDown-App.
- Klicken Sie auf die Schaltfläche "Code" und wählen Sie "ZIP herunterladen" oder verwenden Sie den Befehl Git:
git clone https://github.com/Lakr233/FlowDown-App.git
- Vorbereitung der Umwelt::
- Stellen Sie sicher, dass Xcode (für die Swift-Entwicklung) installiert ist.
- Öffnen Sie ein Terminal, wechseln Sie in das Projektverzeichnis und führen Sie die Installation der Abhängigkeiten (falls vorhanden) aus:
Pod-Installation # bei Verwendung von CocoaPods
- Bauen und Ausführen::
- Öffnen Sie es mit Xcode
.xcodeproj
Dokumentation. - Wählen Sie das Zielgerät (Emulator oder echter Rechner), klicken Sie auf die Schaltfläche "Ausführen", um zu kompilieren und auszuführen.
- Öffnen Sie es mit Xcode
Hauptfunktionen
Extrem schnelle Textwiedergabe mit Markdown-Unterstützung
- eine Anwendung startenFlowDown öffnen und zum Hauptbildschirm gehen.
- Probleme bei der EingabeText in das Dialogfeld eingeben, z. B. "Schreiben Sie mir eine Notiz im Markdown-Format".
- Antwort erhaltenKlicken Sie auf "Senden", und der von AI zurückgegebene Markdown-formatierte Text wird in rasender Geschwindigkeit gerendert, wobei Überschriften, Listen und mehr deutlich dargestellt werden.
- Einstellen der AnzeigeLanges Drücken auf den Textbereich, um die Schriftgröße anzupassen oder den Inhalt zu kopieren.
Benutzerdefinierter LLM-Dienst Zugang
- Gehen Sie zu Einstellungen::
- Klicken Sie auf das Zahnradsymbol in der oberen rechten Ecke, um die Einstellungsseite zu öffnen.
- Dienst hinzufügen::
- Wählen Sie Connect AI Services und geben Sie einen OpenAI-kompatiblen API-Schlüssel und einen Endpunkt ein, zum Beispiel:
API-Schlüssel: sk-xxxxxxxxxxxxxxxxxxxxxxxxxxx Endpunkt: https://api.openai.com/v1
- Wählen Sie Connect AI Services und geben Sie einen OpenAI-kompatiblen API-Schlüssel und einen Endpunkt ein, zum Beispiel:
- Testverbindung::
- Klicken Sie auf "Testen", um zu bestätigen, dass der Dienst verfügbar ist, und speichern Sie.
- Modelle umschalten::
- Wählen Sie den neu hinzugefügten Dienst im Dialogfenster aus, um zu beginnen.
Auto-Chat-Kopfzeile
- Einen neuen Dialog beginnen::
- Klicken Sie auf die Schaltfläche "Neuer Dialog" und geben Sie eine Frage ein.
- Titel generieren::
- Das System generiert automatisch einen Titel auf der Grundlage des eingegebenen Inhalts, z. B. "Markdown note writing".
- Management-Dialog::
- Sehen Sie sich alle Dialoge in der Liste auf der linken Seite an und klicken Sie auf den Titel, um schnell zwischen ihnen zu wechseln.
Ausgewählte Funktionen
Extrem schnelle Textwiedergabe
- Erfahrung im BetriebNach der Eingabe einer Frage wird der Antworttext fast sofort angezeigt, ohne zu warten, bis er geladen ist.
- VerwendungsszenarienIdeal für Benutzer, die in Echtzeit interagieren müssen, z. B. um schnelle Notizen zur Inspiration zu machen oder an langen Gesprächen zu arbeiten.
- Anpassungen zur OptimierungDie Rendering-Priorität kann in den Einstellungen angepasst werden, um einen reibungslosen Betrieb auch auf schwach ausgestatteten Geräten zu gewährleisten.
Datenschutz durch Design
- lokaler SpeicherDialogdaten werden standardmäßig auf dem Gerät gespeichert und nicht in die Cloud hochgeladen.
- Service-OptionenBenutzer können den LLM-Dienst manuell festlegen, um Datenlecks zu vermeiden.
- Datenschutzbestimmungen anzeigenDie Einstellungsseite enthält Links zu detaillierten Beschreibungen der Datenverarbeitung.
Exklusive Funktionen der Standard Edition: Offline LLM und Hochladen von Anhängen
- Offline LLM (basierend auf MLX)::
- Wählen Sie in den Einstellungen "Lokales Modell".
- Laden Sie die unterstützten MLX-Modelldateien herunter (die offizielle Dokumentation ist erforderlich).
- Importieren Sie das Modell und verwenden Sie es offline, kein Internet erforderlich.
- Hochladen von Anhängen::
- Klicken Sie auf die Schaltfläche "+" neben dem Dialogfeld.
- Wählen Sie eine Datei (Bild, PDF usw.), laden Sie sie hoch und geben Sie einen Befehl wie "Dieses Bild analysieren" ein.
- Die KI liefert die Ergebnisse der Analyse, die im Dialogbereich angezeigt werden.
Websuche (Standardversion)
- Suche aktivieren::
- Nachdem Sie Ihre Frage in das Dialogfeld eingegeben haben, klicken Sie auf das Symbol "Suchen".
- Ergebnisse erzielen::
- Das System liefert Webseiteninformationen, die in die KI-Antwort integriert werden.
- Optimierung der Erfahrung::
- Die Suchpriorität kann angepasst oder in den Einstellungen ausgeschaltet werden.
Empfehlungen für die Verwendung
- NetzwerkumgebungAufrechterhaltung der Netzstabilität bei der Verwendung von Cloud-basierten Modellen.
- Hardware-VoraussetzungOffline LLM erfordert ein leistungsstarkes Gerät, mindestens 8 GB RAM werden empfohlen.
- Zugang zu DokumentenUnter https://apps.qaq.wiki/docs/flowdown/ finden Sie einen offiziellen Leitfaden, falls Sie auf Probleme stoßen.