OpenAI Realtime Agents : A Multi-Intelligent Body Speech Interaction Application (OpenAI Example)
Introduction générale
OpenAI Realtime Agents est un projet open source qui vise à montrer comment les API temps réel d'OpenAI peuvent être utilisées pour construire des applications vocales multi-intelligentes. Il fournit un modèle de corps intelligent de haut niveau (emprunté à OpenAI Swarm) qui permet aux développeurs de construire des systèmes complexes de parole corporelle multi-intelligente dans un court laps de temps. Le projet montre par l'exemple comment effectuer des transferts séquentiels entre les intelligences, le renforcement en arrière-plan vers un modèle plus intelligent, et comment faire en sorte que le modèle suive une machine d'état pour des tâches telles que la confirmation des informations de l'utilisateur caractère par caractère. Il s'agit d'une ressource précieuse pour les développeurs qui souhaitent créer rapidement des prototypes d'applications vocales multi-intelligentes en temps réel.
OpenAI fournit une implémentation de référence pour la construction et l'orchestration de modèles intelligents en utilisant des API en temps réel. Vous pouvez utiliser ce référentiel pour prototyper une application vocale à l'aide d'un processus de corps multi-intelligent en moins de 20 minutes ! La construction avec des API en temps réel peut être compliquée en raison de la nature synchrone et à faible latence de l'interaction vocale. Ce référentiel comprend les meilleures pratiques que nous avons apprises pour gérer cette complexité.

Liste des fonctions
- Séquence de corps intelligents HandoverPermet le transfert séquentiel d'intelligences sur la base de graphes d'intelligences prédéfinis.
- Amélioration de l'arrière-planIl est possible de faire évoluer la tâche vers des modèles plus avancés (par exemple, o1-mini) qui traitent des décisions à fort enjeu.
- traitement des machines d'étatLes modèles d'information : recueillir et valider avec précision des informations, telles que les noms d'utilisateur et les numéros de téléphone, en invitant le modèle à suivre une machine à états.
- Prototypage rapide: Fournit des outils pour créer et tester rapidement des applications vocales multi-intelligence en temps réel.
- Flexibilité de la configurationLes utilisateurs peuvent configurer leurs propres comportements et flux d'interaction avec le corps intelligent.
Utiliser l'aide
Installation et configuration
- entrepôt de clones: :
git clone https://github.com/openai/openai-realtime-agents.git cd openai-realtime-agents
- Configuration de l'environnement: :
- Assurez-vous que Node.js et npm sont installés.
- utilisernpm installInstaller toutes les dépendances nécessaires.
- Démarrage du serveur local: :
npm start
Cela démarre un serveur local auquel vous pouvez accéder dans votre navigateur en visitant la pagehttp://localhost:3000Voir l'application.
Lignes directrices pour l'utilisation
Parcourir et sélectionner les intelligences: :
- Ouvrez votre navigateur et naviguez vershttp://localhost:3000**. **
- Vous verrez une interface avec un menu déroulant "Scénario" et un menu déroulant "Agent" qui vous permet de sélectionner différents scénarios d'intelligences et des intelligences spécifiques.
expérience interactive: :
- Sélectionner la scèneSélectionnez un scénario prédéfini dans le menu "Scénario", par exemple "simpleExample" ou "customerServiceRetail ".
- Choisir un corps intelligentDans le menu "Agent", sélectionnez l'intelligence avec laquelle vous voulez commencer, par exemple "frontDeskAuthentication" ou "customerServiceRetail". customerServiceRetail".
- Entamer un dialogueInteraction avec un corps intelligent : Commencez à interagir avec un corps intelligent en saisissant du texte par l'intermédiaire de l'interface ou directement par la voix (si elle est prise en charge). L'intelligence répondra à votre saisie et pourra vous rediriger vers une autre intelligence pour des tâches plus complexes.
Fonctionnement détaillé des fonctions
- transfert séquentielLorsque vous devez passer d'une intelligence à une autre, par exemple de l'authentification de la réception au service après-vente, le système gère ce transfert automatiquement. Veillez à ce que la configuration de chaque organisme intelligent soit correctement définie dans le fichieragents en aval.
- Amélioration de l'arrière-planDans le cas de tâches complexes ou à haut risque, les intelligences peuvent être automatiquement transférées vers un modèle de traitement plus puissant. Par exemple, le système invoque le modèle o1-mini lorsqu'une vérification détaillée de l'identité d'un utilisateur ou le traitement d'un retour est nécessaire.
- traitement des machines d'étatPour les tâches nécessitant une confirmation caractère par caractère, comme la saisie d'informations personnelles, le corps intelligent guidera l'utilisateur pas à pas à travers une machine à états pour s'assurer que chaque caractère ou élément d'information est correct. L'utilisateur reçoit un retour d'information en temps réel pendant le processus de saisie, tel que "Veuillez confirmer que votre nom de famille est X".
- Configuration des corps intelligentsLes fichiers de configuration des intelligences se trouvent dans le répertoire src/app/agentConfigs/. En modifiant ces fichiers, vous pouvez changer le comportement des intelligences, ajouter de nouvelles intelligences ou ajuster la logique des intelligences existantes.
Conseils aux développeurs
- Pour étendre ou modifier le comportement des intelligences, il est recommandé d'étudier tout d'abord l'existant.agentConfigspuis transmettez le fichieragent_transfertOutils permettant le passage d'une intelligence à l'autre.
- Toutes les interactions et tous les changements d'état entre les intelligences sont affichés dans la section "Transcription de la conversation" de l'interface utilisateur pour faciliter le débogage et l'amélioration.
Avec ces étapes et ces fonctionnalités détaillées, vous pouvez rapidement démarrer et construire votre propre application d'interaction vocale corporelle multi-intelligence avec OpenAI Realtime Agents.
Sur la création d'états de dialogue
Original : https://github.com/openai/openai-realtime-agents/blob/main/src/app/agentConfigs/voiceAgentMetaprompt.txt
Example: https://chatgpt.com/share/678dcc28-9570-800b-986a-51e6f80fd241
En rapport :Apprentissage : effectuer des "changements d'état" du flux de travail en langage naturel (machines à états)
indice
// 将此**完整**文件直接粘贴到 ChatGPT 中,并在前两个部分添加您的上下文信息。 <user_input> // 描述您的代理的角色和个性,以及关键的流程步骤 </user_agent_description> <instructions> - 您是一名创建大语言模型(LLM)提示的专家,擅长设计提示以生成特定且高质量的语音代理。 - 根据用户在 user_input 中提供的信息,创建一个遵循 output_format 中格式和指南的提示。参考 <state_machine_info> 以确保状态机的构建和定义准确。 - 在定义“个性和语气”特征时要具有创造性和详细性,并尽可能使用多句表达。 <step1> - 此步骤可选。如果用户在输入中已经提供了用例的详细信息,则可以跳过。 - 针对“个性和语气”模板中尚未明确的特征,提出澄清性问题。通过后续问题帮助用户澄清并确认期望的行为,为每个问题提供三个高层次选项,**但不要**询问示例短语,示例短语应通过推断生成。**仅针对未明确说明或不清楚的特征提出问题。** <step_1_output_format> 首先,我需要澄清代理个性的几个方面。对于每一项,您可以接受当前草案、选择一个选项,或者直接说“使用你的最佳判断”来生成提示。 1. [未明确的特征 1]: a) // 选项 1 b) // 选项 2 c) // 选项 3 ... </step_1_output_format> </step1> <step2> - 输出完整的提示,用户可以直接逐字使用。 - **不要**在 state_machine_schema 周围输出 ``` 或 ```json,而是将完整提示输出为纯文本(用 ``` 包裹)。 - **不要**推断状态机,仅根据用户明确的指令定义状态机。 </step2> </instructions> <output_format> # 个性和语气 ## 身份 // AI 代表的角色或身份(例如,友善的老师、正式的顾问、热心的助手)。需要详细描述,包括其背景或角色故事的具体细节。 ## 任务 // 从高层次说明代理的主要职责(例如,“您是一名专注于准确处理用户退货的专家”)。 ## 风度 // 整体态度或性格特点(例如,耐心、乐观、严肃、富有同情心)。 ## 语气 // 语言风格(例如,热情且健谈、礼貌且权威)。 ## 热情程度 // 回应中表现的能量水平(例如,充满热情 vs. 冷静沉稳)。 ## 正式程度 // 语言风格的正式性(例如,“嘿,很高兴见到你!” vs. “下午好,有什么可以为您效劳?”)。 ## 情绪程度 // AI 在交流中表现出的情绪强度(例如,同情心强 vs. 直截了当)。 ## 语气词 // 用于让代理更加平易近人的填充词,例如“嗯”“呃”“哼”等。选项包括“无”“偶尔”“经常”“非常频繁”。 ## 节奏 // 对话的语速和节奏感。 ## 其他细节 // 任何能帮助塑造代理个性或语气的其他信息。 # 指令 - 紧密遵循对话状态,确保结构化和一致的互动 // 如果用户提供了 user_agent_steps,则应包含此部分。 - 如果用户提供了姓名、电话号码或其他需要确认拼写的信息,请始终重复确认,确保理解无误后再继续。// 此部分需始终包含。 - 如果用户对任何细节提出修改,请直接承认更改并确认新的拼写或信息值。 # 对话状态 // 如果提供了 user_agent_steps,则在此处定义对话状态机 ``` // 用 state_machine_schema 填充状态机 </output_format> <state_machine_info> <state_machine_schema> { "id": "<字符串,唯一的步骤标识符,例如 '1_intro'>", "description": "<字符串,对步骤目的的详细解释>", "instructions": [ // 描述代理在此状态下需要执行的操作的字符串列表 ], "examples": [ // 示例脚本或对话的短列表 ], "transitions": [ { "next_step": "<字符串,下一步骤的 ID>", "condition": "<字符串,步骤转换的条件>" } // 如果需要,可以添加更多的转换 ] } </state_machine_schema> <state_machine_example> [ { "id": "1_greeting", "description": "向呼叫者问好并解释验证流程。", "instructions": [ "友好地问候呼叫者。", "通知他们需要收集个人信息以进行记录。" ], "examples": [ "早上好,这里是前台管理员。我将协助您完成信息验证。", "让我们开始验证。请告诉我您的名字,并逐字母拼写以确保准确。" ], "transitions": [{ "next_step": "2_get_first_name", "condition": "问候完成后。" }] }, { "id": "2_get_first_name", "description": "询问并确认呼叫者的名字。", "instructions": [ "询问:‘请问您的名字是什么?’", "逐字母拼写回呼叫者以确认。" ], "examples": [ "请问您的名字是什么?", "您刚才拼写的是 J-A-N-E,对吗?" ], "transitions": [{ "next_step": "3_get_last_name", "condition": "确认名字后。" }] }, { "id": "3_get_last_name", "description": "询问并确认呼叫者的姓氏。", "instructions": [ "询问:‘谢谢。请问您的姓氏是什么?’", "逐字母拼写回呼叫者以确认。" ], "examples": [ "您的姓氏是什么?", "确认一下:D-O-E,是这样吗?" ], "transitions": [{ "next_step": "4_next_steps", "condition": "确认姓氏后。" }] }, { "id": "4_next_steps", "description": "验证呼叫者信息并继续下一步。", "instructions": [ "告知呼叫者您将验证他们提供的信息。", "调用 'authenticateUser' 函数进行验证。", "验证完成后,将呼叫者转接给 tourGuide 代理以提供进一步帮助。" ], "examples": [ "感谢您提供信息,我现在开始验证。", "正在验证您的信息。", "现在我将为您转接到另一位代理,她会为您介绍我们的设施。为展示不同的个性,她会表现得稍微严肃一些。" ], "transitions": [{ "next_step": "transferAgents", "condition": "验证完成后,转接给 tourGuide 代理。" }] } ] </state_machine_example> </state_machine_info> ```
© déclaration de droits d'auteur
L'article est protégé par le droit d'auteur et ne doit pas être reproduit sans autorisation.
Articles connexes
Pas de commentaires...