AI个人学习
和实操指南

R1 Overthinker:强制 DeepSeek R1 模型延长思考时间

综合介绍

DeepSeek R1 Overthinker 是一个专为增强 DeepSeek R1 模型思考深度而设计的工具。通过延长模型的推理过程,该工具能够使模型进行更深入的思考,从而提高其回答的质量和准确性。该工具利用 unsloth 优化模型,支持无限上下文长度(取决于可用的 VRAM)。用户可以自定义推理扩展和思考阈值,精细控制模型参数(如温度、top-p 等),并实时跟踪思考过程中的 token 计数。DeepSeek R1 Overthinker 适用于多种 VRAM 配置,并支持多种模型大小(从 1.5B 到 70B 参数)。

项目原理不断检测输出,把</thinking>替换为一句 rethinking 的话,该项目的灵感来源于:r1_overthinker 。

DeepSeek R1 Overthinker:强制 DeepSeek R1 蒸馏模型延长思考时间-1

 

功能列表

  • 强制模型进行更长时间和更深入的思考
  • 自定义推理扩展和思考阈值
  • 精细控制模型参数(温度、top-p 等)
  • 实时可见的思考过程和 token 计数跟踪
  • 支持 LaTeX 数学表达式
  • 优化适用于各种 VRAM 配置
  • 支持多种模型大小(1.5B 到 70B 参数)

 

使用帮助

安装流程

  1. 运行 Google Colab

使用指南

  1. 启动应用
    • 运行 python r1_overthinker.py 启动应用程序。
    • 应用程序启动后,会加载 DeepSeek R1 模型,并准备处理输入。
  2. 输入处理
    • 输入句子或段落,应用程序将通过扩展推理过程进行处理。
    • 应用程序会检测模型何时试图结束思考,并用鼓励额外推理的提示进行替换,直到达到用户指定的思考时间阈值。
  3. 自定义思考时间
    • 用户可以在启动应用程序时指定思考时间阈值,例如:
      python r1_overthinker.py --min-think-time 10
      
    • 以上命令将设置模型需要思考的最小时间为 10 秒。
  4. 查看结果
    • 处理完成后,应用程序将输出扩展推理后的结果,用户可以查看模型更深入的推理过程。

详细操作流程

  1. 初始化设置
    • 首次使用时,确保已正确安装所有依赖项,并进行初始化设置。
    • 检查 VRAM 可用情况,以确保处理较大的上下文长度。
  2. 输入文本处理
    • 输入需要处理的文本,应用程序将自动检测并扩展模型的推理过程。
    • 处理过程中,用户可以实时查看模型的推理进展和当前思考状态。
  3. 自定义设置
    • 用户可以根据需要调整思考时间阈值和其他参数,以获得最佳结果。
    • 应用程序支持多种自定义设置,用户可以灵活调整以适应不同的使用场景。
  4. 结果输出
    • 处理完成后,应用程序将输出完整的推理结果,用户可以查看和分析模型的思考过程。
    • 结果输出支持多种格式,用户可以根据需要进行保存和进一步处理。

未经允许不得转载:首席AI分享圈 » R1 Overthinker:强制 DeepSeek R1 模型延长思考时间

首席AI分享圈

首席AI分享圈专注于人工智能学习,提供全面的AI学习内容、AI工具和实操指导。我们的目标是通过高质量的内容和实践经验分享,帮助用户掌握AI技术,一起挖掘AI的无限潜能。无论您是AI初学者还是资深专家,这里都是您获取知识、提升技能、实现创新的理想之地。

联系我们
zh_CN简体中文