AIパーソナル・ラーニング
と実践的なガイダンス
ビーンバッグ・マースコード1

Claude 3.7 Sonnet完全体験:無料チャンネル、APIの詳細、推論をオンにする

最近、Anthropic Inc. クロード 3.5ソネットモデルのアップデート - クロード3.7ソネット。バージョン番号に0.2が追加されただけにもかかわらず、このアップデートはパフォーマンスと機能の両方で多くの変更をもたらします。クロードの最後のモデル・アップデートから4ヶ月以上が経過したが、これは急速に進化する人工知能の分野では長い時間である。

blank


業界では一般的に、アーキテクチャー上のブレークスルーがない限り、モデルが直接バージョン4.0にアップグレードされることはないとされている。

 

無料アクセス

サイト名 住所(科学的なインターネットアクセスが必要なものもある) モデルバージョン 推論モード コンテキスト・ウィンドウトークン) 最大出力(トークン) ネットワーク機能 1日の制限/費用 特性
クロード公式サイト https://claude.ai/ 3.7 ソネット 推論 約32K 約8K 非対応 無料ユーザーは制限され、有料ユーザーはトークン(ノーマル/エクステンデッド)によって制限される。 公式プラットフォームで、無料ユーザーには少額、有料ユーザーには制限がある。
lmarena https://lmarena.ai/ 3.7 ソネット/32k思考 非推論/推論 8K / 32K 2K(最大4K) 非対応 無制限に見える 最大出力トークンを調整できる非推論モードと32k推論モードの両方を提供。
ジェンスパーク https://www.genspark.ai/ 3.7 ソネット 推論 ずるずる ずるずる アジュバント 1日5セッション無料 最新の情報を必要とするシナリオのためのネットワーク検索をサポート。
ポー https://poe.com/ 3.7 ソネット/思考 非推論/推論 16K / 32K (最大64K) チューナブル 非対応 デイリー・ボーナスポイント、1セッションにつき3.7ソネット333ポイント、1セッションにつき2367ポイント考える 統合システム制御の使用により、コンテクスト・ウィンドウと出力長を柔軟に調整。
カーソル (試験的に) https://www.cursor.com/cn 3.7 ソネット ずるずる ずるずる ずるずる 非対応 ずるずる コードエディターに統合され、開発者の利便性を向上。
オープンルーター https://openrouter.ai/ 3.7 ソネット/思考/オンライン 非推論 / 推論 / オンライン 200K 調整可能(最大128K) サポート/料金 プレス トークン 課金、サービスプロバイダーが違っても同額、オンラインモデルは別料金 複数のモデルと推論モードがサポートされ、パラメータ化された最大出力は128Kです。 思考モデルは「全力推論」をサポートします。オンラインモデルは、追加料金でネットワーキングをサポートします。
OAIPro (APIキーが必要です) 3.7 ソネット/思考 非推論/推論 64K / 200K 4K(調整可能) 非対応 トークンによる課金 思考モデルは自動的に推論をオンにし、推論トークンはmax_tokensの80%になるように強制される。
チェリースタジオ (APIキーが必要です) 3.7 ソネット 非推論/推論 200K 調整可能(最大128K) サポート(Tavilyキーが必要) トークンベースの課金 + Tavilyクエリ(月1000クエリ無料) Tavily APIと組み合わせることで、ネットワーク検索が可能になる。
ネクストチャット (APIキーが必要です) 3.7 ソネット ずるずる ずるずる ずるずる サポート(WebPilotプラグイン) フリーウェア 合体 ウェブパイロット このプラグインはネットワーク検索を可能にする。

Claude 3.7 Sonnetを無料で試すには、いくつかの方法があります:

  1. クロード公式サイト::
    • アクセスアドレスhttps://claude.ai/
    • 官能性無料会員は、非推測バージョンのモデルを使用することができ、ネットワーク機能はサポートしていません。
      blank
  2. lmarena::
    • アクセスアドレス:: https://lmarena.ai/
    • 官能性direct chat "オプションでは、非推論バージョンまたは32k推論バージョンのモデルを選択でき、どちらもネットワーキングをサポートしていない。入力制限は8kトークンで、デフォルトの出力は2kトークン、パラメータを調整することで最大出力は4kトークンとなる。
      • lmarenaの紹介複数の大規模言語モデリング(LLM)アリーナと、ユーザーが異なるモデルを比較・テストできる直接チャット機能を提供するプラットフォーム。
    • 非推測バージョン
      blank
    • 32k推理編
      blank
    • 最大出力トークンパラメーター(4kまで)
      blank

      • 最大出力トークン 説明このパラメータは、1回のパスでモデルが生成できるトークンの最大数を設定するために使用される。
  3. ジェンスパーク::
    • アクセスアドレスhttps://www.genspark.ai/
    • 官能性推論バージョンのモデルが提供され、ネットワーキングがサポートされている("Search Web "をチェック)。
      • ジェンスパークの紹介様々な大規模言語モデルと連携した検索が可能なAIサービスを提供するプラットフォーム。
    • 推論編、インターネット接続あり、1日5回
      blank
  4. ポー::
    • アクセスアドレスhttps://poe.com/
    • 官能性1日3000ボーナスポイント
      • ポー入門Quoraが立ち上げたプラットフォームで、ユーザーは複数の大規模言語モデルと対話し、カスタムボットを作成することができる。
    • クロード3.7モデル333ポイント消費、スライダーで調整可能、最大16kのコンテクストをサポート、ネットワークなし。
      blank
      blank
    • クロード 3.7 思考モデル消費ポイント:2367ポイント、スライダーで調整可能、デフォルト32k、最大64k。
      blank
    • デフォルト 32k::
      blank
    • 最大64k::
      blank

    注目に値するのは、ポーの メッセージごとのグローバル予算 セッティング

    blank
    blank

    この設定は会話ごとに消費されるクレジットの上限を示し、デフォルトは700です。メッセージがこのコストを超えた場合、Poeは警告を発します。この設定はすべてのチャットに適用され、チャット設定で特定のチャットの予算を編集することもできます。予算を低く設定しすぎると、AIとの会話がうまくいかなくなることがあります。

    blank

  5. カーソル(試用期間)::
    • アクセスアドレス:: https://www.cursor.com/cn
    • 官能性ネットワークはサポートされていません。
      • カーソル入門開発者がより効率的にコードを書き、デバッグできるように設計された、人工知能を統合したコードエディター。

blank

 

APIの使用

開発者にとっては、APIを通じてクロード3.7ソネットを使用することで、より大きな柔軟性と制御が可能になります。

  • 物価クロード3.7のSonnet APIの価格はバージョン3.5と同じで、入力は$3/100万トークン、出力は$15/100万トークン、キャッシュ読み込みは$0.3/100万トークン、キャッシュ書き込みは$375/100万トークンです。 推論プロセスでは出力トークンもカウントされるため、実際のトークン数と合計価格は推論なしの場合よりも高くなります。カウントと合計金額は推論を行わない場合よりも高くなります。
  • コンテキストウィンドウClaude 3.5 Sonnetと同様、Claude 3.7 Sonnet APIの総コンテキストウィンドウは200kトークンです。
    • コンテキスト・ウィンドウの説明これは、モデルが入力を処理する際に考慮できるテキストの長さである。
    • トークンの説明テキストの基本単位で、単語、文字、サブワードなどがある。
  • 最大出力: Claude 3.5 Sonnet APIは最大8kトークンを出力しますが、Claude 3.7 Sonnetはパラメータを設定することで最大128kトークンを出力します。

ビッグ・モデルのAPIバージョンは通常、チャット・バージョンよりもコンテキスト・ウィンドウと最大出力が大きい。なぜなら、APIユーザーは実際の利用に対して料金を支払うので、入力と出力が多ければ多いほど、サービス・プロバイダーの収益は高くなるからだ。チャット・バージョンは通常、月額固定価格なので、アウトプットが多ければ多いほど、サービス・プロバイダーのコストは高くなる。

ハイブリッド推論モデル

今あるのは 3.7 でありますハイブリッド推論モデルサムが言った。 GPT4.5 は、推論を伴わないモデルの最後の世代である。GPT5.0 とともに o その後、おそらくハイブリッド推論モデルも使って、シリーズが統合された。

ハイブリッドは推論と非推論で、同じモデルを使い、APIはパラメータを使い、チャット版はスライダーやドロップダウンメニューなどで推論トークンの消費/労力をコントロールする。

対応する、推論性能は、基礎となるモデルの性能X推論時間に正比例し、基礎となるモデルの性能は、推論時間と比較していない最初に異なっている個人的なテストの例として、一般的に使用される日本の詩や他のトピックの知恵を減らすためにGPTを測定するためにベンチマークすることができます。

o3ミニハイ和歌48K、理論上の上限100Kの総出力-16Kの最終出力=84K
o3mini-med和歌 30K
o3ミニ・ロー日本の詩 13K
o1日本の詩 12K
R1360秒×30tps=10k、理論上の総出力32k-最終出力8k=24kと考える。
グロック: グロック 高校も高校もなく、1200秒×90tps=108Kまで計測

以下は、知性ではなく、時間軸の関係だけを考慮した個人的な推定値である。参考までに

3.7ソネット@120Kベンチマーキング ワンプロ もしかしたら オースリー・メド参考文献のディープリサーチは、せいぜい数分考えて5万語以上のアウトプットに終わり、それに思考の連鎖が加わって、総アウトプットは少なくとも10万語になる!
3.7ソネット@60Kベンチマーキング o3ミニハイGrok3 制限
3.7 ソネット@32Kベンチマーキング o3mini-med
3.7 ソネット@16Kベンチマーキング o3ミニ・ローR1ジェミニ2.0フラッシュ思考

R1は無料であり、コストを抑えながらパフォーマンスを考慮しなければならないため、R1は考えるべきトーケンが少ない。

現在。 ディープシーク ホールド R1-低 協力 o3mini-med より大きな推論トークンが開放されれば、試合を待つことは、実際、より強いパフォーマンスとなるはずだ
ディープシーク・カードのもう一つの理由は、明らかに十分とは言えないが、以前の "システム・ビジー" ヶ月後、o3miniやクロードのように、時間を大幅に延長してトークンの数を増やし、飛べるだけの大きな力で、激しく演算能力を上げて、近い将来パフォーマンスを上げることはできそうもない。

同じ理由で ジェミニ R1同様、自由戦略でもあり、コスト管理が第一であるため、ジェミニ2.0フラッシュ思考トークンも o3ミニ・ロー そのギアだ。

最大出力128Kの設定方法

Cherry Studio + OpenRouterセットアップ方法(非参照)

この方法は、OpenRouter経由でClaude 3.7 Sonnet APIを使用するためのものです。

  • OpenRouterの紹介複数の大規模言語モデルのAPIアグリゲーションサービスを提供するプラットフォーム。
  • チェリースタジオについて大規模言語モデルのための幅広いAPIをサポートするクライアントサイドツール。
  1. Cherry Studioを開き、アシスタントを追加または編集します。
    blank
    blank
  2. モデル設定」に ベーター パラメータのデータ型に JSON を選択します:
    blank

    ["output-128k-2025-02-19"]
    

    blank

  3. 増加 max_tokens パラメータのタイプに Numeric を選択し、値を 128000 に設定する:
    blank

    • ベーター 占める特定の実験機能を有効にするためのパラメータ。
    • max_tokens 占めるモデルが1回のパスで生成できるトークンの最大数を設定します。

テストによると、OpenRouterでは64Kを超える出力が可能ですが、切り捨てられる可能性があります。これはネットワークの不安定性やモデル自体の制限によるものかもしれません。

OpenRouterのセットアップ方法(120Kの全力推理)

この方法は、OpenRouter用のClaude-3.7-Sonnet:Thinkingモデルでのみ動作します。

  1. Cherry Studioを開き、アシスタントを追加または編集します。
  2. モデル設定」に ベーター パラメータのデータ型に JSON を選択します:
    ["output-128k-2025-02-19"]
    
  3. 増加 思考 パラメータで、パラメータ・タイプにJSONを選択し、値を次のように設定する:
    {"type": "enabled", "budget_tokens": 1200000} {"type": "enabled", "budget_tokens": 1200000}。
    
    • 思考 占める推論モードを有効にし、推論バジェットを設定するためのパラメータ。
  4. モデル温度を 1 に設定する。他の温度値を設定すると、推論が無効になる可能性がある。
    blank
  5. 増加 max_tokens パラメータで、値は128000に設定される(最小値は1024で、最終出力に残された推論バジェットより数K大きくする必要がある):
    blank
オープンWebUI + 公式APIまたはoaiproセットアップ方法(120K以上の全血推論)
  • オープンWebUIの紹介大規模言語モデリングのためのオープンソース、セルフホストウェブインターフェース。
  • oaiproの紹介クロードAPIプロキシサービスを提供するプラットフォーム。

とおす WebUIを開く な パイプ 機能的な変更 ヘッダークロード3.7の128K出力は、どのAPIサイトからでも達成できる。

  • パイプ 占めるOpen WebUIの機能で、リクエストヘッダを変更することができます。
  • ヘッダー 占める: リクエストに関するメタデータを含むHTTPリクエストヘッダ。

推力は最大127999まで設定できる:

合計コンテキスト200K(固定)-最大出力128K(設定可能)=入力最大残量72K
最大出力128K(設定可能)-ソート・チェイン120K(設定可能)=最終出力残り8K

推論モードがオンになっているかどうかを確認する方法

より複雑な質問に挑戦することも可能です。推論モードをオンにすると、Cherry Studioは出力なしで数十秒から数分間考えます。現在のところ、Cherry Studioは推論プロセスを表示するように適応されていません。

例えば、次のような問題(推論をしなければ正解に至らないことが多く、推論に数分かかり、ほとんどの場合正解に至る)を試してみよう:

Claude 3.7 Sonnetの体験:無料チャンネル、APIの詳細、パフォーマンス測定-1

正解:
Claude 3.7 Sonnetの体験:無料チャンネル、APIの詳細、パフォーマンス測定-1

大出力の利点と欠点

バンテージ::

  • 知的体の仕事の一部を代替することも可能だ。例えば、本を翻訳する場合、以前は知的体が章を分割する必要があったかもしれないが、今では本全体を直接扱うことができる。
  • コスト削減の可能性チャプターを分割せず、全文を直接入力すれば、1回8Kの出力を16回繰り返して128Kの出力が可能。出力コストは同じだが、原文の入力は1回で済むので、15回分の入力コストを節約できる。
  • 賢明な入力戦略によって、コストを劇的に削減し、効率を向上させ、処理速度を上げることもできる。
  • 約10万語+は、全体の本の翻訳することができ、一貫性が良好である前と後のWeb記事を書くために本を書くために、背面に前面を忘れて書くことはありません、理論的には大幅に処理能力と効率を向上させるコードの3.5 16倍の量の1回限りの出力にすることができます。

欠点::

  • すべての大規模なモデルの性能は、文脈が増えるにつれて減衰するが、その減衰の正確な大きさを評価する必要がある。
  • 128Kのシングル出力はコストがかかるので、無駄につながるエラーを避けるため、大出力に進む前にキューワードを注意深くテストすること。

APIネットワーキング

公式のクロードAPI自体はネットワークをサポートしていない:

  1. CherryStudio + Tavily APIキー月間1000接続まで無料。
    • タヴィリーについて検索APIサービスを提供するプラットフォーム。

    方法: CherryStudioの最新バージョン1.0にアップデートし、tavily.comで無料のAPIキーを登録・申請します:

    blank

    APIキーをCheeryの設定に入力し、質問ボックスの「Networking」ボタンをクリックします:

    blank
    blank

  2. NextChat + WebPilot プラグイン自由なネットワーキング。
    • NextChatについて複数の大規模言語モデルとプラグインをサポートするチャットプラットフォーム。
    • WebPilotの紹介ウェブコンテンツの抽出と要約機能を提供するプラグイン。
  3. OpenRouterチャットルームネットワーキング・ボタンがあります。Chatroom | OpenRouterにログインし、3.7 Sonnetモデルを選択し、質問ボックスでネットワークボタンをハイライトします: blank
  4. OpenRouterはネットワーク機能を搭載メソッド: モデルを追加するときにモデル名を手動で入力します。 anthropic/claude-3.7-ソネット:オンラインプログラムの費用は、問い合わせ1,000件につき4ドル。

その他のAPI関連情報

  • 公式API::
    • エントランス:: https://www.anthropic.com/api
      blank
    • 最低5ドルから。
      blank
    • チェリーパラメータによる設定はサポートされていません。 ベーター 128K出力を有効にする。
    • ティア1では、入力制限が20ktpm、出力制限が8ktpmとなっている。
  • OpenRouter API::
    • エントランス:: https://openrouter.ai/anthropic/claude-3.7-sonnet
      blank
    • Claude-3.7-Sonnet、Claude-3.7-Sonnet Thinking、Claude-3.7-Sonnet Betaモデルを提供。
    • クロード-3.7-ソネット・オンラインまたはクロード-3.7-ソネット・シンキング・オンライン(ネットワーク機能付き)のサポートは、1,000クエリにつき4ドルの追加料金でご利用いただけます。
    • Anthropic、Amazon、Googleの3つのプロバイダーがあり、価格は同じ。
    • グーグル・プロバイダーの最大出力は64Kだが、アンソロピックとアマゾンは128Kにパラメータ設定できる。
  • OAIPro API::
    • oaiproの紹介クロードAPIプロキシサービスを提供するプラットフォーム。
    • デフォルト入力64K、思考チェーン+最終出力4K。
    • チェリーパラメータによる設定はサポートされていません。 ベーター 128K出力を有効にする。もし max_tokens パラメーターの場合、デフォルトの出力は4Kである。
    • Claude-3-7-Sonnet-20250219-Thinkingモデル:推論が直接オンになり、追加のパラメーターは不要。 max_tokens 80%の場合は、このような指定はできないようです。 思考 パラメーター
    • クロード-3-7-ソネット-20250219 モデル:手動で指定可能 思考 パラメーター
  • 低コストのトランジットセンター::
    • アイシン通常の生産量は約72ドル/100万トークンです。
      • aicnn はじめにAPIリレーを含むAIサービス提供プラットフォーム。
    • 注:低価格のトランジットステーションでは、128Kではなく64K出力しかサポートしていない場合がある。

 

チャット版

無料会員

クロード3.7ソネットの使用は可能だが、使用にはいくつかの制限がある。ソネットによると アンソロピック かつては、無料ユーザーの数はそれほど多くなかったかもしれない。

また、クロード3.5俳句モデルは現在、無料会員には提供されていない。

  • コンテキストウィンドウ実測約32K。
  • 最大出力実測約8K。
  • 無参照

支払い会員

有料チャットバージョンのコンテキストウィンドウと最大出力が無料バージョンと同じかどうかはまだわかりません。

有料版では、ノーマルとエクステンデッドの両方の推理モードが利用できる。ただし、有料版のアカウントが使用禁止になる危険性があることに注意が必要です。IPアドレスに問題がないことを確認する前に、メンバーシップをトップアップすることをお勧めする。比較的、APIを使用する方が安全です。

クロード会員の利用制限は、GPTやGrokのように回数ではなく、トークンの総数で決まります。そのため、推論モード、特に拡張モードを使用すると、1日に質問できる数が大幅に減少します。一部のユーザーは、Anthropicが利用制限の有料リセットを導入し、ユーザーが1回限りの料金でクーリングオフ期間をスキップできるようになるかもしれないと明かしている。

blank

官能性

  • ファイルのアップロード1ファイル最大30MB、20ファイルまで対応。
  • 多峰性音声認識やビデオ認識ではなく、画像認識に対応しています。
  • ギットハブファイルをアップロードする方法として、ユーザーのGitHubリポジトリに接続する新機能。
  • クロード・コード開発者向けの公式コマンドラインツール。コード検索、読み込み、編集、テスト実行、GitHubコミット、コマンドライン操作に対応し、テスト駆動開発や複雑な問題のデバッグの効率化、開発時間の短縮を目的としたツールです。
  • ネットワーキング, ディープサーチ, ディープリサーチ, スピーチモデリング, ヴァンセンヌ・グラフクロードバージョン3.5と同じ。

モデル・レビュー

コーディングスキル

コード能力は常にクロード・モデルの長所であり、その中心的なユーザーグループであるプログラマーの大きな関心事であった。もしコード能力が低下すれば、クロードは深刻な問題に直面する可能性がある。

  • Lmarena: webdev 評価リーダー.参考:https://lmarena.ai/?leaderboard blank
    blank
  • ライブベンチ: クロード 3.7 の非推論バージョンはバージョン 3.5 に比べて機能強化が小さく、推論バージョンは機能強化が大きいが、それに伴ってコストが増加している(単価は同じで、出力トークンが増加している)。参考:https://livebench.ai/
    • Livebenchの紹介大規模言語モデルの性能を継続的に評価するためのプラットフォーム。

    blank

  • 助っ人クロード3.7の推論モードは、バージョン3.5の約2.5倍のコストがかかる。
    • エイダーの紹介開発者のコード生成とデバッグを支援するAIプログラミング・アシスタント。

    blank

    参考:https://aider.chat/docs/leaderboards/

  • コードパロットAIHumanEvalコーディングベンチマークでは、Claude 3.7は92.1と、Claude 3.5(89.4)よりも向上しています。
    • CodeParrot AIの紹介開発プロセスを合理化するための様々なコーディングツールを提供するプラットフォーム。

インテリジェントなボディツールの使用

クロード3.7は知的なボディツールの使い方に秀でている、と人間学は公式に主張している。

blank

数学的能力

クロード 3.7 数学は普通だが、推理はそれ以上。

blank

推理力

blank

 

市場パフォーマンス

グーグル検索の熱::
blank

グーグルプレイClaude AppはUSチャート107位。
blank

App Storeトップ200入りならず。

 

総括と展望

Claude 3.7 Sonnetのリリースは、大規模モデル空間におけるAnthropicの新たな反復を意味します。バージョン番号の小さな変更にもかかわらず、コード生成、推論機能、大規模なコンテキスト出力が改善されている。しかし、Claudeは、無料ユーザーのアクセス制限、ネットワーク機能の欠如、市場パフォーマンスの面で、依然として課題に直面している。

Anthropicの過去のアップデート率からすると、Claude 4.0がリリースされるまでにはまだ時間がかかるかもしれない。Claudeの全体的な成長率、特にC-suite(消費者側)の成長率は、明らかに競合他社に遅れをとっている。評価額はxAIに抜かれている。

現在のトレンドによれば、クロードはGPT、ディープシーク、ジェミニによってグローバルビッグモデルの第1層からしぼられてしまうかもしれない。将来的には、クロードはGrokやBeanbagといったモデルと2番手の座を争うか、Cエンド市場を完全に捨ててプログラミング、インテリジェンス、ライティングといったバーティカルな分野に注力する道を選ぶかもしれない。

無断転載を禁じます:チーフAIシェアリングサークル " Claude 3.7 Sonnet完全体験:無料チャンネル、APIの詳細、推論をオンにする

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語