Archon: система разработки для автономного создания и оптимизации интеллектуального ИИ

Общее введение

Archon - это первый в мире проект "Agenteer" разработчика Коула Медина (GitHub username coleam00) - фреймворк с открытым исходным кодом, ориентированный на автономное создание, оптимизацию и итерацию ИИ-интеллектов. Это фреймворк с открытым исходным кодом, ориентированный на автономное создание и итерацию интеллектов ИИ. Это как практический инструмент для разработчиков, так и образовательная платформа для демонстрации эволюции интеллектуальных систем организма. Archon, в настоящее время находящийся в версии V4, использует полностью оптимизированный пользовательский интерфейс Streamlit для обеспечения интуитивно понятного интерфейса управления. Разработанный на Python, проект объединяет такие технологии, как Pydantic AI, LangGraph и Supabase, чтобы развиваться от простой генерации интеллекта до сложной совместной работы. Archon демонстрирует три принципа разработки современного ИИ: интеллектуальное рассуждение, встраивание знаний и расширяемая архитектура за счет планирования, контуров обратной связи и интеграции знаний о домене.

Archon - это то, что я люблю называть "паразитом" на других фреймворках для развития интеллекта. Archon может создавать и оптимизировать другие фреймворки для развития интеллекта, но он и сам является интеллектом.

Archon:自主构建与优化AI智能体的开发框架

 

Список функций

  • Автоматическая генерация интеллекта: Генерируйте индивидуальные коды тела интеллекта AI на основе требований пользователя.
  • Поиск и индексирование документов: Ползание по документам, таким как Pydantic AI, генерация векторных вкраплений и их хранение в Supabase.
  • Поддержка системы RAG: Использование методов генерации с расширенным поиском для предоставления точных предложений и оптимизации кода.
  • Управление пользовательским интерфейсом StreamlitНастройка переменных окружения, баз данных и служб интеллектуального тела с помощью визуального интерфейса.
  • сотрудничество нескольких разведок: Основано на LangGraph Обеспечение скоординированных рабочих процессов для рассуждений, кодирования и маршрутизации задач.
  • Совместимость с локальными и облачными технологиями: Поддержка OpenAI, Anthropic, OpenRouter API или собственных Оллама Модели.
  • Контейнерное развертывание Docker: Предоставляет основной контейнер и MCP Контейнеры обеспечивают готовность производственных сред к работе "из коробки".
  • Интеграция MCP: Поддержка интеграции с AI IDE (например, Windsurf, Cursor) для управления файлами и зависимостями.
  • Поддержка общества: Предоставление платформы для общения пользователей через форум oTTomator Think Tank.

 

Использование помощи

Archon - это многофункциональный фреймворк с открытым исходным кодом, призванный помочь пользователям быстро разрабатывать и управлять искусственным интеллектом. Здесь представлено подробное руководство по установке и использованию, чтобы вы могли легко приступить к работе.

Процесс установки

Archon V4 поддерживает два способа установки: Docker (рекомендуется) и локальная установка Python. Ниже приведены шаги:

Способ 1: Установка Docker (рекомендуется)

  1. Подготовка среды
    • Убедитесь, что Docker и Git установлены.
    • Получите учетную запись Supabase (для векторных баз данных).
    • Подготовьте API-ключ OpenAI/Anthropic/OpenRouter или запустите Ollama локально.
  2. склад клонов
    Запускается в терминале:

    git clone https://github.com/coleam00/archon.git
    cd archon
  1. Запуск сценария Docker
    Выполните следующую команду, чтобы собрать и запустить контейнер:

    python run_docker.py
    
    • Сценарий автоматически создает два контейнера: основной контейнер Archon (в нем работают пользовательский интерфейс Streamlit и графические сервисы) и контейнер MCP (в нем поддерживается интеграция с AI IDE).
    • если присутствует .env файл, переменные окружения будут загружены автоматически.
  2. интерфейс доступа
    Откройте браузер и посетите http://localhost:8501Для этого перейдите в пользовательский интерфейс Streamlit.

Способ 2: Локальная установка Python

  1. Подготовка среды
    • Убедитесь, что установлен Python 3.11+.
    • Получите учетную запись Supabase и ключ API.
  2. склад клонов
    git clone https://github.com/coleam00/archon.git
    cd archon
    
  3. Создание виртуальной среды и установка зависимостей
    python -m venv venv
    source venv/bin/activate  # Windows: venv\Scripts\activate
    pip install -r requirements.txt
    
  4. Запуск пользовательского интерфейса Streamlit
    streamlit run streamlit_ui.py
    
  5. интерфейс доступа
    Откройте браузер и посетите http://localhost:8501.

Конфигурация переменной окружения

При первом запуске Docker или локальной установки необходимо настроить переменные окружения. Создайте .env файл с образцом содержимого:

OPENAI_API_KEY=your_openai_api_key
SUPABASE_URL=your_supabase_url
SUPABASE_SERVICE_KEY=your_supabase_service_key
PRIMARY_MODEL=gpt-4o-mini
REASONER_MODEL=o3-mini

Эта информация доступна на приборной панели Supabase и у поставщика API.

Функции Поток операций

После установки Streamlit UI предоставляет пять основных функциональных модулей, которые шаг за шагом помогут вам в настройке и использовании.

1. Окружающая среда

  • процедура::
    1. Перейдите на вкладку "Окружающая среда".
    2. Введите ключ API (например, OpenAI или OpenRouter) и параметры модели (например. gpt-4o-mini).
    3. Нажмите на кнопку "Сохранить", и конфигурация будет сохранена в env_vars.json.
  • принимать к сведению: Если вы используете локальную Ollama, вам нужно убедиться, что служба запущена на сервере localhost:11434Потоковая передача пользовательского интерфейса поддерживается только OpenAI.

2. Настройки базы данных (База данных)

  • процедура::
    1. Перейдите на вкладку "База данных".
    2. Введите URL-адрес Supabase и ключ службы.
    3. Нажмите "Инициализировать базу данных", система автоматически создаст базу данных. site_pages Таблица.
    4. Проверьте состояние соединения, чтобы убедиться в успехе.
  • структура стола::
    CREATE TABLE site_pages (
    id UUID PRIMARY KEY DEFAULT uuid_generate_v4(),
    url TEXT,
    chunk_number INTEGER,
    title TEXT,
    summary TEXT,
    content TEXT,
    metadata JSONB,
    embedding VECTOR(1536)
    );
    

3. поиск и индексирование документации (Документация)

  • процедура::
    1. Перейдите на вкладку "Документация".
    2. Введите URL-адрес целевого документа (например, документа Pydantic AI).
    3. Нажмите "Start Crawling", и система разделит документы на куски, сгенерирует вставки и сохранит их в Supabase.
    4. По окончании индексации вы можете просмотреть прогресс индексации в пользовательском интерфейсе.
  • использовать: для RAG Система предоставляет базу знаний.

4. Служба интеллектуального тела (служба агентов)

  • процедура::
    1. Перейдите на вкладку "Служба агента".
    2. Нажмите кнопку Запустить службу, чтобы запустить рабочий процесс LangGraph.
    3. Отслеживайте состояние сервиса по журналам.
  • функциональность: Координируйте рассуждения, кодирование и маршрутизацию заданий, чтобы обеспечить правильную работу основной логики генерации интеллекта.

5. создание умного тела (Чат)

  • процедура::
    1. Перейдите на вкладку "Чат".
    2. Введите требование, например "Создать разведку, анализирующую файлы JSON".
    3. Система объединяет знания, полученные системой RAG, для создания кодов и их отображения.
    4. Скопируйте код для локального запуска или разверните его через службу.
  • типичный пример::
    Исходные данные: "Создайте умное тело, которое запрашивает погоду в реальном времени".
    Пример вывода:

    from pydantic_ai import Agent, OpenAIModel
    agent = Agent(OpenAIModel("gpt-4o-mini"), system_prompt="查询实时天气")
    result = agent.run("获取北京今天的天气")
    print(result.data)
    

Дополнительно: Конфигурация MCP

  • процедура::
    1. Перейдите на вкладку "MCP".
    2. Настройте интеграцию с ИИ IDE, например Cursor.
    3. Запустите контейнер MCP и подключитесь к службе Graph.
  • использовать: Поддержка автоматического создания файлов и управления зависимостями в IDE для кода smartbody.

Пример использования

Предположим, вы хотите разработать "Интеллектуальный анализ журналов":

  1. В чате введите: "Сгенерировать интеллект Pydantic AI, который анализирует журналы Nginx".
  2. Archon извлекает соответствующую документацию и генерирует код:
from pydantic_ai import Agent, OpenAIModel
agent = Agent(OpenAIModel("gpt-4o-mini"), system_prompt="解析Nginx日志")
result = agent.run("分析access.log并提取IP地址")
print(result.data)
  1. Сохраните код локально и не забудьте настроить ключ API перед запуском.

предостережение

  • Совместимость моделей: Только OpenAI поддерживает потоковый вывод из пользовательского интерфейса Streamlit, другие модели (например, Ollama) поддерживают только непотоковый вывод.
  • сетевые требования: Для работы с документами и вызова API требуется стабильная сеть.
  • регулировка компонентов во время тестирования: Если что-то пошло не так, проверьте журнал пользовательского интерфейса или вывод терминала.

Выполнив эти действия, вы сможете в полной мере использовать возможности Archon по быстрому созданию и управлению искусственным интеллектом, как для обучения, так и для реальной разработки.

© заявление об авторских правах

Похожие статьи

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...