Mahilo : une plateforme intégrée pour connecter différents cadres d'intelligence artificielle afin de collaborer en temps réel

Introduction générale

Mahilo est une plateforme d'intégration multi-intelligence open source, publiée sur GitHub par le développeur Jayesh Sharma, conçue pour aider les utilisateurs à connecter des intelligences IA provenant de différents cadres afin de soutenir la communication en temps réel, l'interaction homme-machine et la collaboration intelligente. La plateforme fournit une interface commune pour intégrer des intelligences provenant de cadres tels que LangGraph, Pydantic AI, ou pour ajouter des intelligences par le biais d'API personnalisées. Elle prend en charge les interactions vocales et textuelles et permet à plusieurs utilisateurs de collaborer avec des intelligences dans un espace partagé. Avec plus de 50 étoiles sur GitHub et plus de 500 téléchargements PyPI par mois en mars 2025, Mahilo est adapté à divers scénarios tels que la création de contenu, l'intervention d'urgence, la correspondance immobilière, etc. Mahilo simplifie le développement de systèmes corporels multi-intelligents avec des outils et des modules flexibles qui facilitent la construction de solutions pour des tâches automatisées complexes.

Mahilo:连接不同AI智能体框架实时协作的集成平台

 

Liste des fonctions

  • Intégration des renseignements générauxLes agents d'exécution sont les suivants : prise en charge de la connexion à des intelligences provenant de cadres tels que LangGraph, Pydantic AI, ou à des intelligences personnalisées via l'interface BaseAgent.
  • communication en temps réelLe site WebSocket : fournit une connexion WebSocket pour une interaction vocale et textuelle instantanée entre les intelligences.
  • Collaboration intelligenteLes intelligents peuvent partager de manière autonome le contexte et les informations par l'intermédiaire d'AgentManager afin d'améliorer l'efficacité des tâches.
  • Support multi-utilisateursLe système de gestion des intelligences : permet à plusieurs utilisateurs de collaborer avec des intelligences en temps réel dans un espace intelligent partagé.
  • fonction vocaleLa prise en charge de l'entrée et de la sortie vocales nécessite une installation supplémentaire de PyAudio.
  • Stratégie au niveau de l'organisationLes politiques de comportement et de sécurité doivent être appliquées de manière uniforme dans toutes les intelligences afin de garantir la cohérence.
  • Architecture flexibleLes systèmes d'information et de communication : ils permettent la construction de systèmes corporels complexes et multi-intelligents et s'adaptent à de multiples modes de communication.

 

Utiliser l'aide

Processus d'installation

Pour utiliser Mahilo localement, vous devez suivre les étapes d'installation suivantes :

  1. Exigences environnementales
    • Installez Python 3.8 ou une version ultérieure.
    • Installer Git pour cloner les dépôts GitHub.
    • Si vous avez besoin d'une fonctionnalité vocale, préparez PyAudio (voir ci-dessous pour l'installation).
  2. entrepôt de clones
    Exécutez la commande suivante dans un terminal pour obtenir le code Mahilo :
git clone https://github.com/wjayesh/mahilo.git
cd mahilo
  1. Installation des dépendances
    Allez dans le répertoire du projet et installez les dépendances de base :
pip install -r requirements.txt

Si une assistance vocale est nécessaire, exécutez :

pip install "mahilo[voice]"
  1. Installer PyAudio (dépendances pour la voix)
  • Windows (ordinateur): Run pip install pyaudioEn cas d'échec, vous pouvez télécharger la version correspondante de .whl Installation du fichier.
  • MacOS: Installez d'abord Homebrew (brew install portaudio), puis exécutez pip install pyaudio.
  • Linux: Installer les dépendances du système (sudo apt-get install portaudio19-dev), puis exécutez pip install pyaudio.
  1. Démarrer le serveur
    Une fois l'installation terminée, exécutez la commande suivante pour démarrer le serveur WebSocket :
python -m mahilo.server

Par défaut, le programme s'exécute dans l'environnement http://localhost:8000L'adresse et le port peuvent être modifiés dans le fichier de configuration.

Comment l'utiliser

L'utilisation de Mahilo est divisée en trois étapes principales : la définition des intelligences, le fonctionnement du serveur et l'interaction avec le client. Ce qui suit est un guide d'utilisation détaillé :

1. définir et gérer les intelligences

  • Création d'une intelligence de base: Utilisation BaseAgent Définir une intelligence simple, par exemple une intelligence commerciale :
from mahilo.agent import BaseAgent
from mahilo.agent_manager import AgentManager
sales_agent = BaseAgent(
type="sales_agent",
description="负责处理销售任务的智能体",
tools=["crm_tool"]
)
manager = AgentManager()
manager.register_agent(sales_agent)
  • Intégration des intelligences du cadre externe: par LangGraph A titre d'exemple :
    from mahilo.integrations.langgraph.agent import LangGraphAgent
    marketing_agent = LangGraphAgent(
    langgraph_agent=graph_builder,
    name="MarketingAgent",
    description="营销策略智能体",
    can_contact=["sales_agent"]
    )
    manager.register_agent(marketing_agent)
    

2) Démarrer le serveur WebSocket

  • Initialiser et exécuter le serveur dans un script :
    from mahilo.server import ServerManager
    server = ServerManager(manager)
    server.run()
    
  • Une fois le serveur démarré, le smart peut accepter des connexions clients via WebSocket.

3. connexion et interaction avec le client

  • interaction textuelleLe système d'information de l'Union européenne (UE) : Exécutez la commande suivante pour connecter les intelligences :
    python client.py --agent-name sales_agent
    

    Après une connexion réussie, vous pouvez saisir du texte pour dialoguer avec le corps intelligent, par exemple : "Comment puis-je augmenter mes ventes ?".

  • interaction vocale: Ajouter --voice pour activer la fonction vocale :
    python client.py --agent-name sales_agent --voice
    

    Le système écoute l'entrée du microphone et renvoie une réponse vocale par l'intermédiaire du haut-parleur.

4. collaboration multi-intelligence

  • partage du contexteLes intelligences multiples : la réussite AgentManager Gérer le contexte du dialogue. Par exemple, un responsable des ventes peut demander à un responsable du marketing :
    [sales_agent] 如何提高销量?
    [marketing_agent] 建议增加社交媒体广告投放。
    
  • collaboration multi-utilisateursLes clients multiples peuvent se connecter en même temps, par exemple :
    python client.py --agent-name buyer_agent
    python client.py --agent-name seller_agent
    

    Les utilisateurs et les intelligences peuvent interagir en temps réel dans un espace partagé pour simuler des scénarios de collaboration entre plusieurs personnes.

5. exemples d'applications pratiques

  • Tisseur d'histoiresLes applications de création de contenu collaboratif : Exécuter des applications de création de contenu collaboratif :
    story_agent = BaseAgent(type="story_agent", description="故事创作助手")
    manager.register_agent(story_agent)
    server.run()
    

    Une fois connecté, entrez dans "Commencez une histoire d'aventure" et l'intelligence générera du contenu et collaborera avec d'autres utilisateurs.

  • Coordination des interventions d'urgenceL'intelligence artificielle : créer des intelligences multiples pour traiter l'information et assigner des tâches, par exemple :
    emergency_agent = BaseAgent(type="emergency_agent", description="紧急响应协调")
    
  • Appariement des biens immobiliersLes organismes intelligents peuvent faire correspondre les propriétés et fournir des suggestions en fonction des besoins de l'utilisateur.

6. débogage et extensions

  • Vue du journalLes journaux de communication, tels que les questions et les réponses entre les intelligences, sont affichés lorsque le serveur est en cours d'exécution afin de faciliter le débogage.
  • Prise en charge d'un plus grand nombre de cadresLes logiciels LangGraph et Pydantic AI sont actuellement pris en charge, de même que les logiciels AutoGen et CrewAI L'intégration sera bientôt disponible et les utilisateurs peuvent soumettre des demandes via GitHub.
  • Extensions personnalisées: Référence examples Exemple de code dans le catalogue pour une personnalisation rapide.

mise en garde

  • Assurer une connexion réseau stable, WebSocket est sensible à la latence.
  • Avant d'utiliser la fonction vocale, vérifiez que le microphone et le haut-parleur fonctionnent correctement.
  • Pour les premiers utilisateurs, il est recommandé de lancer examples pour vous familiariser avec les fonctions de base.
© déclaration de droits d'auteur
AiPPT

Articles connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...