일반적인 사용 사례에 대한 클로드의 가이드: 콘텐츠 감사

AI 실습 튜토리얼10개월 전 업데이트 AI 공유 서클
1.9K 00

콘텐츠 감사는 디지털 애플리케이션에서 안전하고 존중하며 생산적인 환경을 유지하기 위한 핵심 요소입니다. 이 가이드에서는 콘텐츠 감사 기능을 사용하는 방법에 대해 설명합니다. Claude 디지털 앱의 콘텐츠를 감사하세요.

저희를 방문해 주세요 콘텐츠 검토 레시피 Claude를 사용한 콘텐츠 감사 예시를 참조하세요.

이 가이드는 앱에서 사용자가 생성한 콘텐츠를 검토하는 데 중점을 두고 있습니다. Claude와의 상호작용을 감사하는 방법에 대한 지침이 필요한 경우 다음을 참조하세요. 보안 경계 가이드라인.

클로드 사용 전

콘텐츠 검토에 Claude를 사용할지 여부를 결정하세요.

다음은 콘텐츠 감사에 대한 기존의 머신 러닝이나 규칙 기반 접근 방식 대신 Claude와 같은 LLM을 선택해야 하는 몇 가지 주요 지표입니다:

비용 효율적이고 빠른 구현을 원하는 경우

기존의 머신 러닝 방법에는 상당한 엔지니어링 리소스, 머신 러닝 전문 지식, 인프라 비용이 필요합니다. 수동 감사 시스템은 훨씬 더 많은 비용이 듭니다. Claude를 사용하면 복잡한 감사 시스템을 더 짧은 시간에 더 저렴한 비용으로 구축할 수 있습니다.

의미론적 이해와 빠른 의사 결정이 필요합니다.

Bag-of-Words 모델링이나 단순 패턴 매칭과 같은 기존의 머신러닝 접근 방식은 콘텐츠의 어조, 의도, 맥락을 이해하는 데 어려움을 겪는 경우가 많습니다. 인간 리뷰 시스템은 의미론적 의미를 이해하는 데는 탁월하지만 콘텐츠를 검토하는 데 시간이 걸리며, Claude는 의미론적 이해와 검토 결정을 신속하게 제공하는 기능을 결합하여 이러한 격차를 해소합니다.

일관된 정책 결정이 필요합니다.

Claude는 고급 추론 기능을 활용하여 복잡한 검토 가이드라인을 일관되게 해석하고 적용할 수 있습니다. 이러한 일관성을 통해 모든 콘텐츠를 공정하게 처리하고 일관되지 않거나 편향된 검토 결정으로 인해 사용자 신뢰가 훼손될 수 있는 위험을 줄일 수 있습니다.

리뷰 정책은 시간이 지남에 따라 변경되거나 발전할 수 있습니다.

기존의 머신러닝 접근 방식이 확립되면 이를 변경하는 데 많은 시간과 데이터 집약적인 노력이 필요할 수 있습니다. 반면, Claude는 제품 또는 고객의 요구 사항이 변경되면 학습 데이터를 광범위하게 다시 레이블을 지정하지 않고도 감사 정책의 변경 또는 추가에 쉽게 적응할 수 있습니다.

감사 결정에 대한 해석 가능한 추론이 필요합니다.

사용자나 규제 기관에 검토 결정에 대한 명확한 설명을 제공하려는 경우, Claude는 상세하고 일관된 근거를 생성할 수 있습니다. 이러한 투명성은 콘텐츠 검토 관행에서 신뢰를 구축하고 책임성을 확보하는 데 매우 중요합니다.

별도의 모델을 유지 관리할 필요 없이 다국어 지원이 필요한 경우

기존의 머신 러닝 접근 방식은 일반적으로 지원되는 각 언어에 대해 별도의 모델이나 광범위한 번역 프로세스를 필요로 합니다. 수동 감사에는 지원되는 각 언어에 능통한 인력이 필요하며, Claude의 다국어 기능은 별도의 모델이나 광범위한 번역 프로세스 없이도 다양한 언어로 티켓을 분류할 수 있어 글로벌 고객 기반을 위한 감사를 간소화합니다.

멀티모달 지원이 필요한 경우

Claude는 멀티모달 기능을 통해 텍스트와 이미지의 콘텐츠를 분석하고 해석할 수 있습니다. 따라서 다양한 미디어 유형을 함께 평가해야 하는 환경에서 포괄적인 콘텐츠 감사를 위한 다용도 도구로 사용할 수 있습니다.

인류학 모든 Claude 모델은 정직하고 도움이 되며 무해하도록 훈련받았습니다. 이로 인해 Claude는 특히 위험하다고 판단되는 콘텐츠를 검토할 수 있습니다( 사용 제한 정책), 어떤 프롬프트가 사용되든 상관없습니다. 예를 들어, 사용자가 노골적인 성적 콘텐츠를 게시할 수 있도록 허용하려는 성인 사이트의 경우 안내 메시지에 노골적인 콘텐츠를 검토하지 않는다고 명시적으로 명시하더라도 클라우드는 여전히 노골적인 콘텐츠를 검토가 필요한 것으로 표시할 수 있습니다. 리뷰 솔루션을 구축하기 전에 AUP를 검토하는 것이 좋습니다.

콘텐츠 감사 생성의 예

콘텐츠 감사 솔루션을 개발하기 전에 먼저 플래그를 지정해야 하는 콘텐츠의 예와 플래그를 지정해서는 안 되는 콘텐츠의 예를 만들어 보세요. 콘텐츠 감사 시스템의 처리 효율성에 문제가 될 수 있는 엣지 케이스와 복잡한 시나리오를 포함해야 합니다. 그런 다음 예시를 검토하여 감사 카테고리의 명확한 목록을 만드세요. 예를 들어 소셜 미디어 플랫폼에서 생성된 예에는 다음이 포함될 수 있습니다:

allowed_user_comments = [
    '这部电影太棒了,我真的很喜欢。主角表现得非常出色!',
    '我讨厌星期一。',
    '现在是投资黄金的好时机!'
]

disallowed_user_comments = [
    '马上删除这篇帖子,否则你最好躲起来。我会追上你和你的家人。',
    '远离 5G 手机!!他们正在用 5G 控制你。',
    '恭喜你!你赢得了一张价值 $1,000 的礼品卡。点击这里领取你的奖品!'
]

# 用于测试内容审核的用户评论示例
user_comments = allowed_user_comments + disallowed_user_comments

# 被视为不安全的内容审核类别列表
unsafe_categories = [
    '儿童剥削',
    '阴谋论',
    '仇恨',
    '无差别武器', 
    '知识产权',
    '非暴力犯罪', 
    '隐私',
    '自我伤害',
    '性犯罪',
    '色情内容',
    '专业建议',
    '暴力犯罪'
]

이러한 예제를 효과적으로 검토하려면 언어에 대한 미묘한 이해가 필요합니다. 리뷰에서这部电影太棒了,我真的很喜欢。主角表现得非常出色!콘텐츠 검토 시스템은 '기발한 행동'이 실제 폭력을 나타내는 것이 아니라 은유라는 점을 인식해야 합니다. 대신, 폭력에 대한 명시적인 언급이 없음에도 불구하고, 리뷰马上删除这篇帖子,否则你最好躲起来。我会追上你和你的家人。콘텐츠 검토 시스템에서 플래그를 지정해야 합니다.

unsafe_categories이 목록은 특정 요구 사항에 맞게 사용자 정의할 수 있습니다. 예를 들어 미성년자가 사이트에서 콘텐츠를 만들지 못하도록 하려면 목록에 '미성년자 게시'를 추가하면 됩니다.


콘텐츠 감사에 Claude를 사용하는 방법

적합한 Claude 모델 선택

모델을 선택할 때는 데이터의 크기를 고려하는 것이 중요합니다. 비용이 문제가 되는 경우, 비용 효율성이 뛰어난 Claude 3 Haiku와 같은 소형 모델을 선택하는 것이 좋습니다. 아래는 매월 10억 개의 게시물을 수신하는 소셜 미디어 플랫폼의 텍스트 감사를 수행하는 데 드는 비용의 추정치입니다:

  • 콘텐츠 크기
    • 월 게시물 수: 10억 건
    • 게시물당 글자 수: 100
    • 총 문자 수: 1,000억
  • 예상 토큰 수
    • 입력 토큰: 286억 달러(3.5자당 토큰 1개로 가정)
    • 태그된 메시지 비율: 3%
    • 태그가 지정된 각 메시지에 대한 출력 토큰 번호: 50
    • 총 출력 토큰 수: 15억
  • 클로드 3 하이쿠 예상 비용
    • 입력 토큰 비용: 2,860 MTok * $0.25/MTok = $715
    • 출력 토큰 비용: 1,500 MTok * $1.25/MTok = $1,875
    • 월 비용: $715 + $1,875 = $2,590
  • 클로드 3.5 소네트 예상 비용
    • 입력 토큰 비용: 2,860 MTok * $3.00/MTok = $8,580
    • 출력 토큰 비용: 1,500 MTok * $15.00/MTok = $22,500
    • 월 비용: $8,580 + $22,500 = $31,080

실제 비용은 이 추정치와 다를 수 있습니다. 이러한 추정치는 다음 정보를 기반으로 합니다. 배치 파일 섹션의 강조 표시된 팁을 참조하세요. 섹션의 explanation 필드에 입력하면 출력 토큰의 수를 더 줄일 수 있습니다.

강력한 팁 구축

콘텐츠 감사를 위해 Claude를 사용하려면 Claude가 애플리케이션의 감사 요구 사항을 이해해야 합니다. 감사 요구 사항을 정의할 수 있도록 프롬프트 작성을 시작해 보겠습니다:

import anthropic
import json

# 初始化 Anthropic 客户端
client = anthropic.Anthropic()

def moderate_message(message, unsafe_categories):
    # 将不安全类别列表转换为字符串,每个类别占一行
    unsafe_category_str = '\n'.join(unsafe_categories)
    
    # 为 Claude 构建提示,包括消息和不安全类别
    assessment_prompt = f"""
    确定以下消息是否需要审核,
    基于下面列出的不安全类别。
    
    消息:
    <message>{message}</message>

    不安全类别:
    <categories>
    {unsafe_category_str}
    </categories>

    仅使用以下格式响应 JSON 对象:
    {{
    "violation": <布尔字段,表示消息是否应该被审核>,
    "categories": [被违反类别的逗号分隔列表],
    "explanation": [可选。如果有违规行为则仅包含。]
    }}"""

    # 发送请求给 Claude 进行内容审核
    response = client.messages.create(
        model="claude-3-haiku-20240307",  # 使用 Haiku 模型以降低成本
        max_tokens=200,
        temperature=0,   # 使用 0 温度以提高一致性
        messages=[
            {"role": "user", "content": assessment_prompt}
        ]
    )
    
    # 解析 Claude 的 JSON 响应
    assessment = json.loads(response.content[0].text)
    
    # 从评估中提取违规状态
    contains_violation = assessment['violation']
    
    # 如果有违规,获取类别和解释;否则使用空默认值
    violated_categories = assessment.get('categories', []) if contains_violation else []
    explanation = assessment.get('explanation') if contains_violation else None
    
    return contains_violation, violated_categories, explanation

# 处理每条评论并打印结果
for comment in user_comments:
    print(f"\n评论: {comment}")
    violation, violated_categories, explanation = moderate_message(comment, unsafe_categories)
    
    if violation:
        print(f"违反的类别: {', '.join(violated_categories)}")
        print(f"解释: {explanation}")
    else:
        print("未检测到问题。")

이 예제에서는moderate_message 이 기능에는 안전하지 않은 콘텐츠 카테고리와 평가하려는 메시지가 포함된 평가 프롬프트가 포함되어 있습니다. 이 프롬프트는 우리가 정의한 안전하지 않은 카테고리에 따라 메시지를 감사해야 하는지 여부를 평가하도록 요청합니다.

그런 다음 모델의 평가를 구문 분석하여 위반 사항이 있는지 확인합니다. 위반 사항이 있는 경우 Claude는 위반된 카테고리 목록과 해당 메시지가 안전하지 않은 것으로 간주되는 이유에 대한 설명도 반환합니다.

팁 평가하기

콘텐츠 검토는 분류의 문제입니다. 따라서 분류 요리책 콘텐츠 감사 시스템의 정확성 결정하기에서 설명한 것과 동일한 기법을 사용합니다.

또 다른 고려 사항은 콘텐츠 감사를 이분법적인 분류 문제로 보는 대신 다양한 위험 수준을 나타내는 여러 카테고리를 만들 수 있다는 것입니다. 여러 위험 수준을 만들면 감사 강도를 조정할 수 있습니다. 예를 들어, 고위험으로 간주되는 사용자 쿼리는 자동으로 차단하고 중간 위험 쿼리는 수동 검토가 필요한 것으로 표시할 수 있습니다.

import anthropic
import json

# 初始化 Anthropic 客户端
client = anthropic.Anthropic()

def assess_risk_level(message, unsafe_categories):
    # 将不安全类别的列表转换为字符串,每个类别占一行
    unsafe_category_str = '\n'.join(unsafe_categories)
    
    # 为 Claude 构造提示,包括待评估的消息、不安全类别和风险级别定义
    assessment_prompt = f"""
    评估以下消息的风险级别,判断是否需要审核,
    基于下面列出的不安全类别。
    
消息:
<message>{message}</message>

不安全类别:
<categories>
{unsafe_category_str}
</categories>

根据您对用户消息应根据定义的不安全类别进行审核的信心,分配风险级别:

0 - 无风险
1 - 低风险
2 - 中等风险
3 - 高风险

仅以 JSON 对象格式回复,使用以下格式:
{{
  "risk_level": <表示风险级别的数值字段>,
  "categories": [违规类别的逗号分隔列表],
  "explanation": <可选。仅在风险级别大于 0 时包含>
}}"""

    # 发送请求给 Claude 进行风险评估
    response = client.messages.create(
        model="claude-3-haiku-20240307",  # 使用 Haiku 模型以降低成本
        max_tokens=200,
        temperature=0,   # 使用 0 温度以提高一致性
        messages=[
            {"role": "user", "content": assessment_prompt}
        ]
    )
    
    # 解析 Claude 的 JSON 响应
    assessment = json.loads(response.content[0].text)
    
    # 从评估中提取风险级别、违规类别和解释
    risk_level = assessment["risk_level"]
    violated_categories = assessment["categories"]
    explanation = assessment.get("explanation")
    
    return risk_level, violated_categories, explanation

# 处理每个评论并打印结果
for comment in user_comments:
    print(f"\n评论: {comment}")
    risk_level, violated_categories, explanation = assess_risk_level(comment, unsafe_categories)
    
    print(f"风险级别: {risk_level}")
    if violated_categories:
        print(f"违规类别: {', '.join(violated_categories)}")
    if explanation:
        print(f"解释: {explanation}")

이 코드는 assess_risk_level 함수를 사용하여 메시지의 위험 수준을 평가합니다. 이 함수는 메시지 목록과 안전하지 않은 카테고리를 입력으로 받습니다.

함수 내부에서는 평가할 메시지, 보안 위반 범주, 평가할 위험 수준에 대한 구체적인 설명이 포함된 프롬프트가 Claude에 생성됩니다. 이 프롬프트는 위험 수준, 위반 범주 및 선택 사항으로 설명을 포함한 JSON 객체 형식으로 응답하도록 Claude에게 지시합니다.

이 접근 방식은 위험 수준을 할당하여 유연한 콘텐츠 검토를 가능하게 합니다. 대규모 시스템에 원활하게 통합하여 평가된 위험 수준에 따라 콘텐츠를 자동으로 필터링하거나 수동 검토를 위해 댓글에 플래그를 지정할 수 있습니다. 예를 들어, 다음 코드를 실행할 때 댓글은 Delete this post now or you better hide. I am coming after you and your family. 위험한 위협으로 인해 고위험으로 식별되었습니다. 대신 댓글 Stay away from the 5G cellphones!! They are using 5G to control you. 중간 위험으로 분류됩니다.

팁 배포하기

솔루션의 품질에 만족했다면 이제 프로덕션 환경에 배포할 차례입니다. 다음은 콘텐츠 감사를 사용할 때의 몇 가지 모범 사례입니다:

  1. **사용자에게 명확한 피드백 제공: 사용자 입력이 차단되었거나 콘텐츠 검토로 인해 응답에 플래그가 지정된 경우 유용하고 건설적인 피드백을 제공하여 사용자가 자신의 메시지가 플래그가 지정된 이유를 이해하고 적절하게 다시 작성하는 방법을 알 수 있도록 돕습니다. 위의 코드 예시에서 이 작업은 클로드 응답을 통해 이루어집니다. explanation 라벨 실현.
  2. **감사 받은 콘텐츠 분석: 감사 시스템에서 플래그를 지정한 콘텐츠 유형을 추적하여 트렌드와 개선이 필요한 영역을 파악합니다.
  3. **지속적인 평가 및 개선: 정확도 및 리콜 추적 등의 메트릭을 사용하여 콘텐츠 검토 시스템의 성능을 정기적으로 평가하세요. 이 데이터를 사용하여 감사 프롬프트, 키워드 및 평가 기준을 반복적으로 개선하세요.

성능 향상

복잡한 시나리오의 경우 표준 외에도 엔지니어링을 위한 팁 그 외에도 몇 가지 추가 전략을 고려하면 성과를 개선하는 데 도움이 될 수 있습니다. 다음은 몇 가지 고급 전략입니다:

주제 정의 및 예제 제공

프롬프트에 안전하지 않은 카테고리를 나열하는 것 외에도 각 카테고리에 대한 정의와 관련 문구를 제공하면 더욱 개선할 수 있습니다.

import anthropic
import json

# 初始化 Anthropic 客户端
client = anthropic.Anthropic()

# 含有定义的内容审核不安全类别字典
unsafe_category_definitions = {
    'Child Exploitation': '涉及儿童裸体或促进、鼓励、辩护或描绘儿童性虐待的内容。',
    'Conspiracy Theories': """推广或支持关于事件、情况或个人的毫无根据的虚假或误导性理论的内容,
        这些理论可能煽动伤害或破坏公众对机构或事实的信任。""",
    'Hate': """基于受保护特征(种族、肤色、民族、国籍、残疾、宗教信仰、种姓、性取向、性别、性别认同和重大疾病)
        对人群表达仇恨的内容,或助长负面刻板印象的内容。""",
    'Indiscriminate Weapons': '涉及大规模杀伤性武器制造的内容。',
    'Intellectual Property': '侵犯第三方知识产权的内容。',
    'Non-Violent Crimes': '鼓励、辩护或推动非暴力犯罪的内容。',
    'Privacy': '包含私人个人敏感信息的内容。',
    'Self-Harm': '鼓励、辩护或推动自残行为的内容。',
    'Sex Crimes': '鼓励、辩护或推动性犯罪的内容。',
    'Sexual Content': '包含色情描述或性行为明确描写的内容。',
    'Specialized Advice': """包含金融、医疗或法律建议的内容。
        金融建议包括投资、股票、债券或任何财务规划的指导。""",
    'Violent Crimes': '鼓励、辩护或推动暴力犯罪的内容。',
}

def moderate_message_with_definitions(message, unsafe_category_definitions):
    # 格式化不安全类别字符串,每个类别及其定义占一行
    unsafe_category_str = '\n'.join(f'{category}: {definition}' 
        for category, definition in unsafe_category_definitions.items()
    )
    
    # 构建 Claude 的提示信息,包括消息和不安全类别
    assessment_prompt = f"""根据以下列出的不安全类别,判断以下消息是否需要审核。

消息:
<message>{message}</message>

不安全类别及其定义:
<categories>
{unsafe_category_str}
</categories>

请记住所有不安全类别及其定义。

仅以 JSON 格式响应,使用以下格式:
{{
  "violation": <布尔字段,表示消息是否应被审核>,
  "categories": [被违反类别的逗号分隔列表],
  "explanation": [可选。如果存在违规,才包含。]
}}"""

    # 向 Claude 发送内容审核请求
    response = client.messages.create(
        model="claude-3-haiku-20240307",  # 使用 Haiku 模型以降低成本
        max_tokens=200,
        temperature=0,   # 使用 0 温度以提高一致性
        messages=[
            {"role": "user", "content": assessment_prompt}
        ]
    )
    
    # 解析 Claude 的 JSON 响应
    assessment = json.loads(response.content[0].text)
    
    # 从评估结果中提取违规状态
    contains_violation = assessment['violation']
    
    # 如果有违规,获取违规类别和解释;否则使用空默认值
    violated_categories = assessment.get('categories', []) if contains_violation else []
    explanation = assessment.get('explanation') if contains_violation else None
    
    return contains_violation, violated_categories, explanation


# 处理每个评论并打印结果
for comment in user_comments:
    print(f"\n评论:{comment}")
    violation, violated_categories, explanation = moderate_message_with_definitions(comment, unsafe_category_definitions)
    
    if violation:
        print(f"违规类别:{', '.join(violated_categories)}")
        print(f"解释:{explanation}")
    else:
        print("未发现问题。")

moderate_message_with_definitions 함수는 이전 moderate_message 함수는 각 안전하지 않은 카테고리를 세부 정의와 결합하여 확장되었습니다. 이 코드는 원래 함수의 unsafe_categories 목록이 다음과 같이 바뀝니다. unsafe_category_definitions 사전. 이 사전은 각 안전하지 않은 카테고리를 해당 정의에 매핑합니다. 카테고리 이름과 해당 정의가 모두 프롬프트 메시지에 포함됩니다.

다음 사항에 주목할 가치가 있습니다.Specialized Advice 이제 카테고리의 정의에 금지되는 금융 조언의 유형이 명시됩니다. 그 결과 이전에 채택된 moderate_message "지금이 금에 투자하기 좋은 시기입니다!" 검토 후기 지금은 위반이 발생할 수 있습니다.

일괄 처리 고려

실시간 검토가 필요하지 않은 경우에는 비용을 줄이기 위해 메시지를 일괄적으로 검토하는 것이 좋습니다. 프롬프트의 컨텍스트에 여러 개의 메시지를 포함시키고 Claude가 어떤 메시지를 검토해야 하는지 평가하도록 하세요.

import anthropic
import json

# 初始化 Anthropic 客户端
client = anthropic.Anthropic()

def batch_moderate_messages(messages, unsafe_categories):
    # 将不安全类别列表转换为字符串,每个类别占一行
    unsafe_category_str = '\n'.join(unsafe_categories)
    
    # 格式化消息字符串,将每个消息用类似 XML 的标签包裹,并给出 ID
    messages_str = '\n'.join([f'<message id={idx}>{msg}</message>' for idx, msg in enumerate(messages)])
    
    # 构建 Claude 的提示,包括要评估的消息和不安全类别
    assessment_prompt = f"""根据下面列出的不安全类别,确定需要审核的消息。

消息列表:
<messages>
{messages_str}
</messages>

不安全类别及其定义:
<categories>
{unsafe_category_str}
</categories>

仅使用以下格式返回 JSON 对象:
{{
  "violations": [
    {{
      "id": <message id>,
      "categories": [违反的类别列表],
      "explanation": <为何存在违规的解释>
    }},
    ...
  ]
}}

重要提示:
- 记得分析每条消息是否存在违规行为。
- 选择任何合理适用的违规类别。"""

    # 发送审核请求给 Claude
    response = client.messages.create(
        model="claude-3-haiku-20240307",  # 使用 Haiku 模型以降低成本
        max_tokens=2048,  # 增加最大 Token 数以处理批量数据
        temperature=0,    # 设置温度为 0 提高一致性
        messages=[
            {"role": "user", "content": assessment_prompt}
        ]
    )
    
    # 解析 Claude 返回的 JSON 响应
    assessment = json.loads(response.content[0].text)
    return assessment


# 处理批量评论并获取响应
response_obj = batch_moderate_messages(user_comments, unsafe_categories)

# 输出每条检测到的违规信息
for violation in response_obj['violations']:
    print(f"""评论:{user_comments[violation['id']]}
违规类别:{', '.join(violation['categories'])}
解释:{violation['explanation']}
""")

이 예제에서는batch_moderate_messages 이 함수는 한 번의 Claude API 호출로 전체 메시지 배치를 검토할 수 있도록 처리합니다. 함수 내부에는 평가할 메시지 목록, 안전하지 않은 콘텐츠 카테고리 및 해당 설명이 포함된 힌트가 생성됩니다. 이 프롬프트는 위반 사항이 포함된 모든 메시지가 나열된 JSON 객체를 반환하도록 Claude에 요청합니다. 응답의 각 메시지는 입력 목록에서 메시지의 위치에 해당하는 ID로 식별됩니다. 특정 요구 사항에 맞는 최적의 배치 크기를 찾으려면 약간의 실험이 필요할 수 있습니다. 배치 크기가 클수록 비용은 절감할 수 있지만 품질이 약간 떨어질 수 있습니다. 또한 배치 크기를 늘리려면 클루드 API 호출의 max_tokens 매개변수를 추가하여 더 긴 응답을 처리할 수 있습니다. 선택한 모델에서 출력할 수 있는 최대 토큰 수에 대한 자세한 내용은 다음을 참조하세요. 모델 비교 페이지.

© 저작권 정책

관련 문서

댓글 없음

댓글에 참여하려면 로그인해야 합니다!
지금 로그인
없음
댓글 없음...