Sim Studio : générateur de flux de travail open source pour les agents d'intelligence artificielle

堆友AI

Introduction générale

Sim Studio est une plateforme open source de construction de flux de travail d'agents d'intelligence artificielle qui aide les utilisateurs à concevoir, tester et déployer rapidement des flux de travail de modèles de langage à grande échelle (LLM) grâce à une interface visuelle légère et intuitive. Les utilisateurs peuvent créer des applications multi-agents complexes par glisser-déposer sans programmation approfondie. Il prend en charge les modèles locaux et en nuage, et est compatible avec un large éventail d'intégrations d'outils tels que Slack et les bases de données. Une version officielle hébergée dans le cloud (https://simstudio.ai) et des options auto-hébergées sont disponibles pour répondre à différents besoins.

Sim Studio:开源的AI代理工作流构建工具

Les frameworks d'agents d'IA fleurissent de nos jours, pourquoi est-ce que je recommande Sim Studio en particulier ? J'ai compilé une liste des caractéristiques de quelques-uns des principaux frameworks d'agents d'IA open source actuellement disponibles :

Nom du cadreparadigme de basePrincipaux avantagesScénarios applicables
LangGraphFlux de travail basé sur des graphiquesContrôle explicite du DAG, ramification et débogageTâches complexes en plusieurs étapes, traitement avancé des erreurs
SDK des agents OpenAIChaîne d'outils avancée OpenAIIntégration d'outils tels que la recherche sur le web et la recherche de fichiersLes équipes qui s'appuient sur l'écosystème OpenAI
SmolagentsBoucles d'agents minimales centrées sur le codeConfiguration simple, exécution directe du codeAutomatisation rapide des tâches sans chorégraphie complexe
CrewAICollaboration multi-agents (équipages)Flux de travail parallèle basé sur le rôle avec mémoire partagéeTâches complexes nécessitant la collaboration de plusieurs experts
AutoGenchat asynchrone multi-agentsDialogue en temps réel, axé sur les événementsScénarios nécessitant une interaction "vocale" simultanée et multi-LLM en temps réel
Studio SimConstructeur visuel de flux de travailInterface intuitive, déploiement rapide, flexibilité de l'open sourcePrototypage rapide et déploiement d'un environnement de production

 

Il existe aujourd'hui sur le marché un certain nombre de plates-formes de création d'agents d'intelligence artificielle à code réduit ou sans code, et j'ai dressé une liste de leurs performances par rapport à Sim Studio :

bâtiment à toit platspécificitésScénarios applicablesprix
Vertex AI BuilderPlateforme d'entreprise sans code avec des API complexesAutomatisation des flux de travail dans les grandes entreprisescouvrir les coûts
Faisceau AIPlate-forme horizontale avec prise en charge de plusieurs agents sur siteAutomatisation multidisciplinaire (conformité, service à la clientèle, etc.)couvrir les coûts
Microsoft corporation Copilote StudioFaible code, 1200+ connecteurs de donnéesChatbot interne, Gestion des commandescouvrir les coûts
Lyzr Agent StudioModulaire et adapté au prototypageFinance, automatisation des ressources humainescouvrir les coûts
Studio SimOpen source, interface visuelle, déploiement flexibleL'ensemble du processus, du prototype à la productionlibre et gratuit

Comme vous pouvez le constater, en tant que projet open source, Sim Studio n'est pas en reste en termes de fonctionnalités et de flexibilité, et il n'y a pas de pression financière pour l'utiliser.

 

Liste des fonctions

  • Éditeur visuel de flux de travail Conception de flux de travail d'agents d'intelligence artificielle avec une interface "glisser-déposer" qui prend en charge la logique conditionnelle et les tâches à plusieurs étapes.
  • Prise en charge de plusieurs modèles Les systèmes de gestion du cycle de vie (LLM) : compatibles avec les LLM locaux et en nuage, par exemple par l'intermédiaire du système de gestion du cycle de vie (LLM). Ollama Exécution de modèles locaux.
  • intégration des outils Les fonctionnalités de proxy étendues : prise en charge de la connexion à des outils externes tels que Slack, des bases de données et des fonctionnalités de proxy étendues.
  • Déploiement de l'API Les API de flux de travail sont générées en un seul clic pour faciliter l'intégration dans d'autres systèmes.
  • déploiement local Les services d'hébergement automatique sont pris en charge par Docker ou manuellement pour les scénarios sensibles en matière de confidentialité.
  • Extensions modulaires Le système de gestion de l'information : Il améliore la flexibilité en permettant aux utilisateurs de personnaliser les blocs fonctionnels et les outils.
  • Journalisation et débogage Les données sont enregistrées de manière détaillée afin d'optimiser le flux de travail et de résoudre les problèmes d'erreurs.
  • Soutien aux conteneurs de développement Les conteneurs de développement VS Code simplifient la mise en place d'environnements de développement locaux.

 

Utiliser l'aide

Le cœur de Sim Studio réside dans ses capacités légères et intuitives de création de flux de travail. Les paragraphes suivants décrivent en détail le processus d'installation, le fonctionnement des principales fonctions et l'utilisation des caractéristiques spéciales afin de permettre aux utilisateurs de démarrer rapidement.

Processus d'installation

Sim Studio propose trois options d'auto-hébergement : Docker (recommandé), les conteneurs de développement et l'installation manuelle. Les options suivantes sont principalement Docker et l'installation manuelle, et le conteneur de développement convient aux développeurs qui sont familiers avec VS Code.

Méthode 1 : Installation de Docker (recommandée)

Docker fournit un environnement d'exécution cohérent qui convient à la plupart des utilisateurs. Docker et Docker Compose doivent être installés au préalable.

  1. Clonage de la base de code
    S'exécute dans le terminal :

    git clone https://github.com/simstudioai/sim.git
    cd sim
    
  2. Configuration des variables d'environnement
    Copiez et modifiez le fichier d'environnement :

    cp sim/.env.example sim/.env
    

    configuré dans le fichier .env :

    • BETTER_AUTH_SECRET : Génère une clé aléatoire pour l'authentification.
    • RESEND_API_KEY : utilisé pour la vérification de la boîte aux lettres ; s'il n'est pas défini, le code de vérification sera affiché sur la console.
    • Paramètres de la base de données : PostgreSQL est utilisé par défaut, vous devez vous assurer que le service de base de données fonctionne.
    • OLLAMA_HOST : la valeur est fixée à http://host.docker.internal:11434 en cas d'utilisation d'un modèle local.
  3. Démarrage des services
    Exécutez la commande suivante :

    docker compose up -d --build
    

    ou utiliser un script :

    ./start_simstudio_docker.sh
    

    Une fois le service démarré, visitez le site http://localhost:3000/w/ pour accéder à l'interface du flux de travail.

  4. Services de gestion
    • Voir le journal :
      docker compose logs -f simstudio
      
    • Interruption des services :
      docker compose down
      
    • Redémarrer le service (après la mise à jour du code) :
      docker compose up -d --build
      
  5. Utilisation de modèles locaux
    Si un LLM local est nécessaire (par exemple LLaMA), retirez le modèle :

    ./sim/scripts/ollama_docker.sh pull <model_name>
    

    Lancer des services qui soutiennent les modèles locaux :

    ./start_simstudio_docker.sh --local
    

    Ou choisir en fonction du matériel :

    # 有 NVIDIA GPU
    docker compose up --profile local-gpu -d --build
    # 无 GPU
    docker compose up --profile local-cpu -d --build
    

    Si vous avez déjà une instance d'Ollama, modifiez docker-compose.yml pour l'ajouter :

    extra_hosts:
    - "host.docker.internal:host-gateway"
    environment:
    - OLLAMA_HOST=http://host.docker.internal:11434
    

Mode 2 : Installation manuelle

Pour les développeurs qui ont besoin d'un environnement personnalisé avec Node.js, npm et PostgreSQL installés.

  1. Cloner et installer les dépendances
    git clone https://github.com/simstudioai/sim.git
    cd sim/sim
    npm install
    
  2. Environnement de configuration
    Copiez et modifiez le fichier d'environnement :

    cp .env.example .env
    

    Configurer BETTER_AUTH_SECRET, les connexions à la base de données, etc.

  3. Initialisation de la base de données
    Architecture de la base de données Push :

    npx drizzle-kit push
    
  4. Démarrer le serveur de développement
    npm run dev
    

    Visitez le site http://localhost:3000.

Approche 3 : Développement de conteneurs

  1. Installer l'extension Remote - Containers dans VS Code.
  2. Ouvrez le répertoire du projet et cliquez sur "Reopen in Container".
  3. Exécutez npm run dev ou sim-start pour démarrer le service.

Principales fonctions

Au cœur de Sim Studio se trouve l'éditeur visuel de flux de travail, décrit ci-dessous :

Création de flux de travail

  1. Connectez-vous à Sim Studio (http://localhost:3000/w/).
  2. Cliquez sur "Nouveau flux de travail" pour accéder à l'éditeur.
  3. Faites glisser le nœud Agent et sélectionnez LLM (Cloud or Local Model).
  4. Ajoutez un nœud Tools (par exemple Slack ou Database) et configurez les paramètres.
  5. Utilisez le nœud Logique conditionnelle pour définir la logique de branchement.
  6. Connecter des nœuds et enregistrer des flux de travail.

Processus de test

  1. Cliquez sur "Test" et saisissez les données de l'exemple.
  2. Consulter les résultats et les journaux pour vérifier l'exécution du nœud.
  3. Ajuster les nœuds ou la logique si nécessaire et refaire le test.

Processus de déploiement

  1. Cliquez sur Déployer et sélectionnez Générer l'API.
  2. Obtenir le point de terminaison de l'API (par exemple http://localhost:3000/api/workflow/).
  3. Tester l'API :
    curl -X POST http://localhost:3000/api/workflow/<id> -d '{"input": "示例数据"}'
    

Processus de débogage

  1. Vérifiez les entrées et sorties du nœud en consultant le "Journal" dans l'éditeur.
  2. Utiliser le contrôle de version pour enregistrer des instantanés du flux de travail afin de faciliter le retour en arrière.

Fonction en vedette Fonctionnement

  • Soutien au modèle local La configuration de l'agent est terminée : l'exécution d'un modèle local via Ollama est adaptée aux scénarios sensibles en matière de confidentialité. Après la configuration, sélectionnez le modèle au niveau du nœud de l'agent et testez les performances.
  • intégration des outils Prenons l'exemple de Slack, saisissons le jeton API dans le nœud de l'outil, définissons la cible du message et testons la fonctionnalité d'envoi du message.
  • Conteneurs de développement Développement conteneurisé via VS Code, avec configuration automatique de l'environnement pour une itération rapide.

mise en garde

  • Les installations Docker doivent s'assurer que le port 3000 n'est pas occupé.
  • Les modèles locaux nécessitent une configuration matérielle élevée (16 Go de RAM recommandés, GPU en option).
  • Les environnements de production doivent être configurés avec RESEND_API_KEY et HTTPS.
  • Mettre régulièrement le code à jour :
    git pull origin main
    docker compose up -d --build
    

pile technologique

Sim Studio utilise une pile technologique moderne pour garantir la performance et l'efficacité du développement :

  • fig. modèle Next.js (routeur d'applications)
  • base de données complète PostgreSQL + Drizzle ORM : PostgreSQL + Drizzle ORM
  • accréditation La loi sur l'immigration et la protection des réfugiés : Better Auth
  • Interfaces : Shadcn, Tailwind CSS
  • Gestion du statut : Zustand
  • Éditeur de processus : ReactFlow
  • fichier (informatique) : Fumadocs

 

scénario d'application

  1. Service client automatisé
    Concevoir des flux de travail multi-agents, intégrer une base de données et Slack, automatiser les réponses aux questions des clients et notifier le service client humain, adapté aux plateformes de commerce électronique.
  2. l'analyse des données
    Créez des flux de travail pour extraire des données des bases de données, appelez LLM pour générer des rapports, déployez-les sous forme d'API, adaptées à l'analyse financière.
  3. Outils pédagogiques
    Création d'agents d'apprentissage interactifs, combinaison de modèles locaux pour répondre aux questions et intégration d'outils de génération de questions de test pour l'enseignement en ligne.

 

QA

  1. Sim Studio est-il compatible avec Windows ?
    Windows est pris en charge, mais nécessite Docker Desktop ou Node.js. L'approche Docker est recommandée pour garantir un environnement cohérent.
  2. Comment se connecter à une instance Ollama existante ?
    Modifier docker-compose.yml, ajouter le mappage host.docker.internal, définir OLLAMA_HOST.
  3. Quel est le matériel nécessaire pour un modèle local ?
    16 Go de RAM recommandés, GPU pour de meilleures performances, peut fonctionner lentement sur les appareils bas de gamme.
  4. Comment contribuer au code ?
    Se référer à https://github.com/simstudioai/sim/blob/main/.github/CONTRIBUTING.md.
© déclaration de droits d'auteur

Articles connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...