TableGPT 에이전트: 복잡한 표 형식의 데이터를 분석하도록 설계된 지능형 도구

최신 AI 리소스6개월 전 업데이트 AI 공유 서클
11.4K 00

일반 소개

TableGPT 에이전트는 표 형식의 데이터를 처리하고 분석하기 위해 설계된 GitHub 오픈 소스 프로젝트에 기반한 지능형 도구입니다. 자연어 상호 작용을 통해 사용자가 복잡한 표 콘텐츠를 쉽게 쿼리, 조작, 이해할 수 있도록 하는 TableGPT2 빅 언어 모델을 사용합니다. CSV 파일에서 데이터를 추출하거나 시각적 차트를 생성하거나 특정 표 기반 질문에 답할 때 이 도구를 사용하면 효율적으로 작업을 완료할 수 있습니다. tablegpt 팀이 개발한 이 도구는 랭그래프 다양한 테이블 관련 애플리케이션 시나리오를 지원하며, 데이터 분석이 필요하지만 프로그래밍에 능숙하지 않은 사용자에게 이상적입니다. 이 프로젝트는 Apache 2.0 라이선스에 따라 라이선스가 부여되며, 개발자들이 기여하도록 권장되며, GitHub에서 활발한 커뮤니티 지원이 이루어지고 있습니다.

TableGPT Agent:专为分析复杂表格数据设计的智能工具

 

기능 목록

  • 테이블 데이터 읽기 및 처리로컬로 업로드한 CSV, Excel 파일 또는 데이터베이스의 테이블 데이터 읽기 및 구조화를 지원합니다.
  • 자연어 쿼리:: 사용자는 "살아남은 남자는 몇 명인가요?" 또는 "가장 많이 팔리는 제품이 무엇인가요?"와 같이 일상적인 언어로 질문할 수 있습니다. 또는 "가장 많이 팔린 제품이 무엇인가요?"와 같이 일상적인 언어로 질문할 수 있습니다. : 사용자는 "몇 명의 남자가 살아남았나요?"와 같이 일상적인 언어로 질문할 수 있습니다.
  • 자동 코드 생성데이터 필터링, 통계 계산, 차트 그리기 등 사용자의 필요에 따라 Python 코드를 생성합니다.
  • 데이터 시각화 지원도구를 사용하여 선 그래프, 막대 차트 및 기타 시각적 결과를 생성하여 데이터 분석의 결론을 시각적으로 표시할 수 있습니다.
  • 복잡한 양식 작업 지원:: 다계층 표 구조 또는 불규칙한 데이터를 처리하여 정확한 분석을 제공합니다.
  • 세션 메모리 기능체크포인터와 세션_ID를 통해 분석 컨텍스트를 보존하여 여러 차례의 연속 대화를 지원합니다.
  • 오픈 소스 확장성개발자가 기능을 사용자 지정하거나 다른 프로젝트에 통합할 수 있는 풍부한 API와 문서를 제공합니다.

 

도움말 사용

설치 프로세스

TableGPT 에이전트는 실행을 위해 특정 환경 구성이 필요한 Python 기반 도구입니다. 자세한 설치 단계는 다음과 같습니다:

1. 환경 준비

  • Python 설치파이썬 웹사이트에서 다운로드할 수 있는 파이썬 3.8 이상이 컴퓨터에 설치되어 있는지 확인합니다.
  • Git 설치GitHub는 GitHub 리포지토리를 위한 복제 도구로, Windows/Mac 사용자는 Git 웹사이트에서 다운로드할 수 있습니다.
  • vLLM 설치: TableGPT 에이전트 권장 vLLM 효율적인 추론을 위해 TableGPT2 모델을 배포합니다. 다음 명령을 실행합니다:
    pip install vllm==0.5.5 --extra-index-url https://download.pytorch.org/whl/cu124

(사용 중인 CUDA 버전에 맞게 조정) cu124(GPU가 없는 경우 이 단계를 건너뛸 수 있지만 모델을 수동으로 배포해야 합니다).

2. 창고 복제

터미널(Windows의 경우 CMD 또는 PowerShell, Mac/Linux의 경우 터미널)을 열고 실행합니다:

git clone https://github.com/tablegpt/tablegpt-agent.git
cd tablegpt-agent

3. 종속성 설치

프로젝트 디렉터리에서 필요한 Python 라이브러리를 설치합니다:

pip install -r requirements.txt

전체 기능을 로컬에서 실행해야 하는 경우 추가 종속성을 설치하세요:

pip install ".[local]"

4. TableGPT2 모델 배포

TableGPT 에이전트는 TableGPT2 모델을 지원해야 합니다. 먼저 허깅 페이스에서 모델을 다운로드한 다음(예: TableGPT2-7B) vLLM을 사용하여 서비스를 시작하세요:

python -m vllm.entrypoints.openai.api_server --served-model-name TableGPT2-7B --model path/to/weights

서비스가 시작되면 기본적으로 기본적으로 http://localhost:8000이 URL을 사용하지 않으려면 해당 URL을 적어두세요.

5. 상담원 구성하기

예를 들어 코드 또는 구성 파일을 편집하여 LLM의 API 주소가 배포한 vLLM 서비스를 가리키도록 합니다:

llm = ChatOpenAI(openai_api_base="http://localhost:8000/v1", openai_api_key="whatever", model_name="TableGPT2-7B")

사용법

설치가 완료되면 TableGPT 에이전트를 실행할 준비가 된 것입니다. 다음은 주요 기능에 대한 자세한 작동 절차입니다:

기능 1: 테이블 데이터 읽기

  1. 데이터 파일 준비로컬 디렉터리에 CSV 또는 Excel 파일을 저장합니다(예 gpt_workspace (폴더)를 클릭합니다.
  2. 에이전트 시작: Python 환경에서 다음 코드를 실행하여 상담원을 초기화합니다:
    from langchain_openai import ChatOpenAI
    from langgraph.checkpoint.memory import MemorySaver
    from pybox import LocalPyBoxManager
    from tablegpt.agent import create_tablegpt_graph
    llm = ChatOpenAI(openai_api_base="http://localhost:8000/v1", openai_api_key="whatever", model_name="TableGPT2-7B")
    pybox_manager = LocalPyBoxManager()
    checkpointer = MemorySaver()
    agent = create_tablegpt_graph(llm=llm, pybox_manager=pybox_manager, checkpointer=checkpointer, session_id="my-session")
    
  3. 파일 업로드다음 코드를 사용하여 파일을 업로드하고 상담원이 파일을 읽도록 합니다:
    from datetime import date
    from tablegpt.agent.file_reading import Stage
    from langchain_core.messages import HumanMessage
    attachment_msg = HumanMessage(content="请读取文件 data.csv", additional_kwargs={"file_path": "path/to/data.csv"})
    response = await agent.ainvoke(
    input={"entry_message": attachment_msg, "processing_stage": Stage.UPLOADED, "messages": [attachment_msg], "date": date.today()},
    config={"configurable": {"thread_id": "my-thread"}}
    )
    print(response["messages"])
    

    에이전트는 파일을 읽었다는 확인을 반환합니다.

기능 2: 자연어 쿼리

  1. 질문하기같은 세션에서 질문을 계속 입력합니다:
    human_message = HumanMessage(content="有多少行数据?")
    response = await agent.ainvoke(
    input={"messages": [human_message], "date": date.today()},
    config={"configurable": {"thread_id": "my-thread"}}
    )
    print(response["messages"])
    
  2. 결국상담원은 "100개의 데이터 행이 있습니다"와 같은 답변을 반환합니다.

기능 3: 시각화 차트 생성

  1. 요청 차트:: "매출 막대 그래프 그리기"와 같은 내용을 입력합니다:
    human_message = HumanMessage(content="绘制销售额的柱状图")
    async for event in agent.astream_events(
    input={"messages": [human_message], "date": date.today()},
    config={"configurable": {"thread_id": "my-thread"}},
    version="v2"
    ):
    if event["event"] == "on_chat_model_end":
    print(event["data"]["output"])
    
  2. 수출에이전트는 Python 코드를 생성하고 차트 결과를 반환합니다(로컬에서 실행되는 matplotlib 등의 라이브러리 사용).

기능 4: 복잡한 작업 처리

다계층 테이블이나 불규칙한 데이터의 경우 "각 부서의 평균 연령 계산"과 같이 직접 질문하면 상담원이 자동으로 구문 분석하여 결과를 생성합니다.

주의

  • 환경 종속성네트워크에 장애물이 없고 vLLM 서비스가 제대로 작동하는지 확인합니다.
  • 파일 경로: 파일을 업로드할 때 올바른 경로를 입력합니다.
  • 세션 관리동일하게 사용 session_id 노래로 응답 thread_id 컨텍스트의 연속성을 유지하세요.

위의 단계를 통해 TableGPT 에이전트를 쉽게 시작하고 데이터 읽기부터 분석까지 전체 프로세스를 완료할 수 있습니다!

© 저작권 정책

관련 문서

댓글 없음

댓글에 참여하려면 로그인해야 합니다!
지금 로그인
없음
댓글 없음...