ミクストラル8x22Bが発売され、オープンソースのGPT-4タイプが初めて市販された。
しかし、これはコマンドに最適化されたモデルではなく、ベースモデルである。
つまり、まったく新しい方法でキューを出す必要がある。
これはより困難ではあるが、達成することは不可能ではない。
基本的なモデリングのコツを簡潔に解説:
ベースモデルは、次のような方法でプロンプトが表示される。 チャットGPT このようなコマンド最適化モデルは、まったく異なるものだ。スーパーオートコンプリートツールだと考えてほしい。彼らは対話を続けるように設計されているのではなく、むしろ、あなたが提供したテキストを補完するように訓練されているのだ。
この違いは、プロンプトをより難しくし、より多くの可能性を広げる!
例えば、ベースモデルは皆さんがよく知っているChatGPTよりもはるかに表現力豊かで、ChatGPTが生成した回答は、深くチューニングされているため、容易に見分けがつくことが多いことにお気づきかもしれません。基本的に、そのスタイルと動作は固定されています。基本的に、ChatGPTのスタイルと振る舞いは固定されています。しかし、基礎となるモデルには無限の可能性が潜んでいます。
基礎となるモデルへのヒントをどう考えるか:
ベースモデルに合図を送るときは、自分がしてほしいことをモデルにどう説明するかを考えすぎるのではなく、自分がしてほしいことをモデルに示すことをもっと考えるべきだ。モデルの頭の中に入り込み、モデルがどう考えるかを考える必要がある。
基礎となるモデルは、基本的に学習データの反映である。これを理解できれば、驚異的な仕事ができる。
例えば、モデルに「医療における人工知能の影響」というニュース記事を書かせたい場合、学習データの中で似たようなニュース形式の記事に遭遇した可能性がある場所を考慮する必要がある。おそらくニュースサイトだろう?
このことを念頭に置いて、実際の記事ページに含まれるような類似した要素を含めて、このコンセプトを利用したプロンプトを作成することができます。例えば
ホーム|ヘッドライン|オピニオン
人工知能タイムズ
--
ヘルスケアにおける人工知能のインパクト
下のスクリーンショットを見れば、モデルをトレーニングデータで見たような状況に置くことで、記事を書くことになったことがわかる!
しかし、この方法は完璧ではない。記事作成の流れは十分ではないし、記事が作成される保証はまだない。
では、どうすれば信頼性を向上させることができるのか?
例を加えることで
ベースモデルは数発のプロンプトに非常によく反応する。プロンプトにいくつかの例を追加してみよう。手っ取り早くするために、インターネットからいくつかの記事を取り出し、プロンプトの先頭に追加することにしよう(私を責めないでほしい-これは単なるデモンストレーションであり、本番では使用しない!)。.
おわかりのように、これらのいくつかの例で、記事は大幅に改善された。
解析について話そう:
ベースモデルを扱うときの主な課題の1つは、その出力を解析することです。例えば、「JSONで答えなさい」と指示することができます。しかし、ベースモデルの場合、これはそれほど簡単ではありません。
私がよく使う『モデル・リード』と呼ばれるテクニックを紹介しよう。
記事のタイトルのリストを生成する必要があると仮定すると、あなたのニーズを説明した後、プロンプトの最後に配列の最初の2文字を追加することで、ほぼ強制的にリスト形式でモデルに応答させることができます。以下に例を示します:
プロンプトの最後に'["'を追加したところを見てください。この簡単なトリックにより、基礎となるモデルを使用して解析可能なデータを生成することができます。
より高度な方法:
以上の紹介は、基本モデルの簡単な応用方法に過ぎない。より良い結果を出すために、もっと効果的なテクニックはたくさんある。
例えば、モデルにPythonインタプリタだと思わせるという方法がある。
これは直感的に聞こえないかもしれないが、実際には非常にうまく機能する。
例えば、文章を短くするプロンプトを書いてみるのもいいでしょう。スクリーンショットのプロンプトをご覧ください。
ご覧のように、実際にはPythonインタプリタをシミュレートするプロンプトを作成し、モデルにインタプリタの出力をシミュレートさせています。私たちが呼び出している関数はテキストを短くするものなので、モデルはテキストの短いバージョンを出力します!
このように、ベースモデルを使用してプロンプトを出すのと、チャットモデルやガイダンスモデルを使用するのとでは、大きく異なります。Mixtral 8x22Bを使用するすべての方のお役に立てれば幸いです!