Archon: система разработки для автономного создания и оптимизации интеллектуального ИИ
Общее введение
Archon - это первый в мире проект "Agenteer" разработчика Коула Медина (GitHub username coleam00) - фреймворк с открытым исходным кодом, ориентированный на автономное создание, оптимизацию и итерацию ИИ-интеллектов. Это фреймворк с открытым исходным кодом, ориентированный на автономное создание и итерацию интеллектов ИИ. Это как практический инструмент для разработчиков, так и образовательная платформа для демонстрации эволюции интеллектуальных систем организма. Archon, в настоящее время находящийся в версии V4, использует полностью оптимизированный пользовательский интерфейс Streamlit для обеспечения интуитивно понятного интерфейса управления. Разработанный на Python, проект объединяет такие технологии, как Pydantic AI, LangGraph и Supabase, чтобы развиваться от простой генерации интеллекта до сложной совместной работы. Archon демонстрирует три принципа разработки современного ИИ: интеллектуальное рассуждение, встраивание знаний и расширяемая архитектура за счет планирования, контуров обратной связи и интеграции знаний о домене.
Archon - это то, что я люблю называть "паразитом" на других фреймворках для развития интеллекта. Archon может создавать и оптимизировать другие фреймворки для развития интеллекта, но он и сам является интеллектом.

Список функций
- Автоматическая генерация интеллекта: Генерируйте индивидуальные коды тела интеллекта AI на основе требований пользователя.
- Поиск и индексирование документов: Ползание по документам, таким как Pydantic AI, генерация векторных вкраплений и их хранение в Supabase.
- Поддержка системы RAG: Использование методов генерации с расширенным поиском для предоставления точных предложений и оптимизации кода.
- Управление пользовательским интерфейсом StreamlitНастройка переменных окружения, баз данных и служб интеллектуального тела с помощью визуального интерфейса.
- сотрудничество нескольких разведок: Основано на LangGraph Обеспечение скоординированных рабочих процессов для рассуждений, кодирования и маршрутизации задач.
- Совместимость с локальными и облачными технологиями: Поддержка OpenAI, Anthropic, OpenRouter API или собственных Оллама Модели.
- Контейнерное развертывание Docker: Предоставляет основной контейнер и MCP Контейнеры обеспечивают готовность производственных сред к работе "из коробки".
- Интеграция MCP: Поддержка интеграции с AI IDE (например, Windsurf, Cursor) для управления файлами и зависимостями.
- Поддержка общества: Предоставление платформы для общения пользователей через форум oTTomator Think Tank.
Использование помощи
Archon - это многофункциональный фреймворк с открытым исходным кодом, призванный помочь пользователям быстро разрабатывать и управлять искусственным интеллектом. Здесь представлено подробное руководство по установке и использованию, чтобы вы могли легко приступить к работе.
Процесс установки
Archon V4 поддерживает два способа установки: Docker (рекомендуется) и локальная установка Python. Ниже приведены шаги:
Способ 1: Установка Docker (рекомендуется)
- Подготовка среды
- Убедитесь, что Docker и Git установлены.
- Получите учетную запись Supabase (для векторных баз данных).
- Подготовьте API-ключ OpenAI/Anthropic/OpenRouter или запустите Ollama локально.
- склад клонов
Запускается в терминале:git clone https://github.com/coleam00/archon.git cd archon
- Запуск сценария Docker
Выполните следующую команду, чтобы собрать и запустить контейнер:python run_docker.py
- Сценарий автоматически создает два контейнера: основной контейнер Archon (в нем работают пользовательский интерфейс Streamlit и графические сервисы) и контейнер MCP (в нем поддерживается интеграция с AI IDE).
- если присутствует
.env
файл, переменные окружения будут загружены автоматически.
- интерфейс доступа
Откройте браузер и посетитеhttp://localhost:8501
Для этого перейдите в пользовательский интерфейс Streamlit.
Способ 2: Локальная установка Python
- Подготовка среды
- Убедитесь, что установлен Python 3.11+.
- Получите учетную запись Supabase и ключ API.
- склад клонов
git clone https://github.com/coleam00/archon.git cd archon
- Создание виртуальной среды и установка зависимостей
python -m venv venv source venv/bin/activate # Windows: venv\Scripts\activate pip install -r requirements.txt
- Запуск пользовательского интерфейса Streamlit
streamlit run streamlit_ui.py
- интерфейс доступа
Откройте браузер и посетитеhttp://localhost:8501
.
Конфигурация переменной окружения
При первом запуске Docker или локальной установки необходимо настроить переменные окружения. Создайте .env
файл с образцом содержимого:
OPENAI_API_KEY=your_openai_api_key
SUPABASE_URL=your_supabase_url
SUPABASE_SERVICE_KEY=your_supabase_service_key
PRIMARY_MODEL=gpt-4o-mini
REASONER_MODEL=o3-mini
Эта информация доступна на приборной панели Supabase и у поставщика API.
Функции Поток операций
После установки Streamlit UI предоставляет пять основных функциональных модулей, которые шаг за шагом помогут вам в настройке и использовании.
1. Окружающая среда
- процедура::
- Перейдите на вкладку "Окружающая среда".
- Введите ключ API (например, OpenAI или OpenRouter) и параметры модели (например.
gpt-4o-mini
). - Нажмите на кнопку "Сохранить", и конфигурация будет сохранена в
env_vars.json
.
- принимать к сведению: Если вы используете локальную Ollama, вам нужно убедиться, что служба запущена на сервере
localhost:11434
Потоковая передача пользовательского интерфейса поддерживается только OpenAI.
2. Настройки базы данных (База данных)
- процедура::
- Перейдите на вкладку "База данных".
- Введите URL-адрес Supabase и ключ службы.
- Нажмите "Инициализировать базу данных", система автоматически создаст базу данных.
site_pages
Таблица. - Проверьте состояние соединения, чтобы убедиться в успехе.
- структура стола::
CREATE TABLE site_pages ( id UUID PRIMARY KEY DEFAULT uuid_generate_v4(), url TEXT, chunk_number INTEGER, title TEXT, summary TEXT, content TEXT, metadata JSONB, embedding VECTOR(1536) );
3. поиск и индексирование документации (Документация)
- процедура::
- Перейдите на вкладку "Документация".
- Введите URL-адрес целевого документа (например, документа Pydantic AI).
- Нажмите "Start Crawling", и система разделит документы на куски, сгенерирует вставки и сохранит их в Supabase.
- По окончании индексации вы можете просмотреть прогресс индексации в пользовательском интерфейсе.
- использовать: для RAG Система предоставляет базу знаний.
4. Служба интеллектуального тела (служба агентов)
- процедура::
- Перейдите на вкладку "Служба агента".
- Нажмите кнопку Запустить службу, чтобы запустить рабочий процесс LangGraph.
- Отслеживайте состояние сервиса по журналам.
- функциональность: Координируйте рассуждения, кодирование и маршрутизацию заданий, чтобы обеспечить правильную работу основной логики генерации интеллекта.
5. создание умного тела (Чат)
- процедура::
- Перейдите на вкладку "Чат".
- Введите требование, например "Создать разведку, анализирующую файлы JSON".
- Система объединяет знания, полученные системой RAG, для создания кодов и их отображения.
- Скопируйте код для локального запуска или разверните его через службу.
- типичный пример::
Исходные данные: "Создайте умное тело, которое запрашивает погоду в реальном времени".
Пример вывода:from pydantic_ai import Agent, OpenAIModel agent = Agent(OpenAIModel("gpt-4o-mini"), system_prompt="查询实时天气") result = agent.run("获取北京今天的天气") print(result.data)
Дополнительно: Конфигурация MCP
- процедура::
- Перейдите на вкладку "MCP".
- Настройте интеграцию с ИИ IDE, например Cursor.
- Запустите контейнер MCP и подключитесь к службе Graph.
- использовать: Поддержка автоматического создания файлов и управления зависимостями в IDE для кода smartbody.
Пример использования
Предположим, вы хотите разработать "Интеллектуальный анализ журналов":
- В чате введите: "Сгенерировать интеллект Pydantic AI, который анализирует журналы Nginx".
- Archon извлекает соответствующую документацию и генерирует код:
from pydantic_ai import Agent, OpenAIModel
agent = Agent(OpenAIModel("gpt-4o-mini"), system_prompt="解析Nginx日志")
result = agent.run("分析access.log并提取IP地址")
print(result.data)
- Сохраните код локально и не забудьте настроить ключ API перед запуском.
предостережение
- Совместимость моделей: Только OpenAI поддерживает потоковый вывод из пользовательского интерфейса Streamlit, другие модели (например, Ollama) поддерживают только непотоковый вывод.
- сетевые требования: Для работы с документами и вызова API требуется стабильная сеть.
- регулировка компонентов во время тестирования: Если что-то пошло не так, проверьте журнал пользовательского интерфейса или вывод терминала.
Выполнив эти действия, вы сможете в полной мере использовать возможности Archon по быстрому созданию и управлению искусственным интеллектом, как для обучения, так и для реальной разработки.
© заявление об авторских правах
Авторское право на статью Круг обмена ИИ Пожалуйста, не воспроизводите без разрешения.
Похожие статьи
Нет комментариев...