はじめに
キュリオシティは、主にLangGraphとFastHTMLの技術スタックを使用した探索と実験を目的としたプロジェクトで、同様のものを構築することを目標としています。 複雑さAI 検索製品のプロジェクトの中心は、シンプルな リ・アクト Curiosityは、OpenAIのgpt-4o-mini、Groqのllama3-groq-8b-8192-tool-use-preview、Tavily検索を活用してテキスト生成を強化するエージェントである。 オーラマ このプロジェクトでは、技術的な実装だけでなく、高品質のビジュアルとインタラクティブな体験を保証するために、フロントエンドのデザインにも多くの時間を費やしている。
機能一覧
- LangGraphとFastHTMLテクノロジースタックを使う
- 統合されたTavily検索 強化されたテキスト生成
- gpt-4o-mini、llama3-groq、llama3.1を含む複数のLLMをサポート。
- 柔軟なバックエンド・スイッチング機能を提供
- フロントエンドはFastHTMLで構築され、WebSocketsストリーミングをサポートしています。
ヘルプの使用
インストール手順
- クローン倉庫
ギット クローン https://github.com/jank/curiosity
- 最新の Python3 インタプリタがあることを確認してください。
- 仮想環境をセットアップし、依存関係をインストールする:
python3 -m venv venv ソース venv/bin/activate pip install -r requirements.txt
- 確立
環境
ファイルを作成し、以下の変数を設定する:OPENAI_API_KEY=となります。 GROQ_API_KEY=。 TAVILY_API_KEY=。 LANGCHAIN_TRACING_V2=true langchain_endpoint="https://api.smith.langchain.com" LANGSMITH_API_KEY=とします。 LANGCHAIN_PROJECT="キュリオシティ"
- プロジェクトを実行する:
python curiosity.py
使用ガイドライン
- プロジェクトの開始走る
python curiosity.py
その後、プロジェクトはローカル・サーバー上で起動し、実行される。 - LLMを選択LLM (例: gpt-4o-mini, llama3-groq, llama3.1)を選択します。
- Tavilyで検索ダイアログにクエリを入力すると、ReActエージェントがTavily検索でテキスト生成を強化します。
- フロントエンド・インタラクションこのプロジェクトのフロントエンドはFastHTMLで構築され、WebSocketストリーミングをサポートし、リアルタイムのレスポンスを保証します。
一般的な問題
- LLMの切り替え方法で
環境
ファイルで適切なAPIキーを設定し、プロジェクト開始時に希望のLLMを選択してください。 - ウェブソケットの問題WebSocketが理由なく終了する問題が発生した場合は、ネットワーク接続とサーバー構成を確認することをお勧めします。