Allgemeine Einführung
ChatGPT Web Midjourney Proxy ist ein Open-Source-Projekt, das Projekt in ChatGPT-Web basiert auf der sekundären Entwicklung, zielt darauf ab, eine Vielzahl von AI-Tools in einem zu integrieren, um eine einheitliche Benutzeroberfläche zu bieten. Das Projekt wird von Dooy entwickelt, basierend auf dem MIT-Protokoll Release, Unterstützung für mehrere Plattformen (Web / PWA / Linux / Win / MacOS). Mit Midjourney-Proxy und Suno-API als Backend können Benutzer ChatGPT, Midjourney, GPTs, Suno, Luma, Runway, Viggle, Flux, Ideogram, Realtime, Pika, Udio und viele andere AI Tools für die einfache und schnelle Text-, Bild- und Videoerstellung usw.
Diese offene Quelle ist in ChenZhaoYu Die Verwendung des midjourney-proxy oder trueai(Proxy für MidJourneys Discord-Kanal, Implementierung einer API zum Aufrufen der KI-Zeichnung), Suno-API,Luma-API(Umgekehrt) Gebildet als Back-End-API.
Funktionsliste
- Unterstützung der ChatGPT-Textgenerierung
- Unterstützung der Midjourney-Bilderzeugung, einschließlich Text-zu-Graph, Matte+Text-zu-Graph, Graphwechsel und anderer Operationen
- Adjuvans Suno Musikgenerierung mit Funktionen zur Anpassung der Liedtexte und des Liedstils
- Unterstützt die Erzeugung von Luma-Videos, text- und graphgenerierten Videos
- Unterstützt die Anpassung und den Wechsel zwischen mehreren AI-Modellen
- Unterstützung mehrerer Plattformen (Web / PWA / Linux / Win / MacOS)
- Unterstützt Docker Deployment und Vercel One-Click Deployment
- Unterstützt mehrsprachige Schnittstellen (einschließlich Chinesisch, Englisch, Französisch, Koreanisch usw.)
Hilfe verwenden
Ablauf der Installation
- Windows-Installationsprogramm:Laden Sie die neueste Version des Installationsprogramms herunter und wählen Sie die für Ihr Betriebssystem geeignete Version.
- Docker-Installation::
- Laden Sie die neueste Version des Docker-Images herunter:
docker pull ydlhero/chatgpt-web-midjourney-proxy
- Starten Sie den Docker-Container:
docker run --name chatgpt-web-midjourney-proxy -d -p 6015:3002 \ -e OPENAI_API_KEY=sk-xxxxx \ -e OPENAI_API_BASE_URL=https://api.openai.com \ -e MJ_SERVER=https://your-mj-server:6013 \ -e MJ_API_SECRET=Ihr-mj-api-geheimnis \ -e LUMA_SERVER=https://your-luma-server:8000 \ -e LUMA_KEY=Ihr-luma-key \ -e SUNO_SERVER=https://your-suno-server:8000 \ -e SUNO_KEY=Ihr-Suno-Schlüssel \ ydlhero/chatgpt-web-midjourney-proxy
- Laden Sie die neueste Version des Docker-Images herunter:
- Einsatz in Vercel::
- Erstellen Sie ein neues Projekt auf der Vercel-Plattform und verbinden Sie sich mit einem GitHub-Repository.
- Konfigurieren Sie die Umgebungsvariablen:
OPENAI_API_KEY
: OpenAI API-SchlüsselOPENAI_API_BASE_URL
: Adresse der OpenAI-API-SchnittstelleMJ_SERVER
: Midjourney Proxy Server AdresseMJ_API_SECRET
: Midjourney API-SchlüsselLUMA_SERVER
Adresse des Luma API-ServersLUMA_KEY
: Luma API-SchlüsselSUNO_SERVER
Adresse des Suno API-ServersSUNO_KEY
: Suno API-Schlüssel
- Nach der Bereitstellung können Sie auf die von Vercel bereitgestellte URL zugreifen, um sie zu nutzen.
- Ein-Klick-Bereitstellung Adresse
Verwendung Prozess
- Textgenerierung::
- Rufen Sie das ChatGPT-Modul auf, geben Sie den zu generierenden Textinhalt ein und klicken Sie auf die Schaltfläche Generieren, um den KI-generierten Text zu erhalten.
- Bilderzeugung::
- Gehen Sie zum Midjourney-Modul, wählen Sie den Modus "textgeneriertes Bild" oder "Matte + textgeneriertes Bild", geben Sie einen Beschreibungstext ein oder laden Sie ein Matte-Bild hoch, und klicken Sie auf die Schaltfläche "Generieren", um das AI-generierte Bild zu erhalten.
- Unterstützt Diagrammwechsel, lokales Neuzeichnen, Zoom, HD und viele andere Operationen.
- Generation Musik::
- Gehen Sie zum Suno-Modul, geben Sie einen Text ein oder wählen Sie ein Genre aus, und klicken Sie auf die Schaltfläche Generieren, um KI-generierte Musik zu erhalten.
- Unterstützt die Anpassung von Liedtexten und die Anpassung des Liedstils.
- Generation Video::
- Rufen Sie das Luma-Modul auf, wählen Sie den Modus für textgenerierte Videos oder grafisch generierte Videos, geben Sie einen Beschreibungstext ein oder laden Sie ein Bild hoch, und klicken Sie auf die Schaltfläche Generieren, um das KI-generierte Video zu erhalten.
- Kundenspezifische Modelle::
- Sie können für die Generierung zu einem benutzerdefinierten KI-Modell wechseln, indem Sie in den Einstellungen "Benutzerdefiniertes Modell" auswählen und den Modellnamen und die API-Adresse eingeben.
Erweiterte Einstellungen
- API-AnpassungEinstellungen: Auf der Seite Einstellungen können Sie die API-Schnittstelle anpassen, indem Sie Ihren API-Schlüssel und Ihre Basis-URL eingeben, um Ihr eigenes KI-Modell zu verwenden.
- Unterstützung mehrerer PlattformenDie App unterstützt Web-, PWA-, Linux-, Windows- und MacOS-Plattformen, und Sie können nahtlos zwischen der Nutzung auf verschiedenen Geräten wechseln.
- Echtzeit-InteraktionOpenAI Real-Time Interaction: Mit der OpenAI Real-Time Interaction-Funktion können Sie einen sofortigen Dialog mit der KI führen, um Feedback und Vorschläge in Echtzeit zu erhalten.