AIパーソナル・ラーニング
と実践的なガイダンス
ビーンバッグ・マースコード1

JavaでOllama APIを使う

この記事では オーラマ このドキュメントは、開発者が素早くスピードアップし、Ollamaの機能を最大限に活用できるように設計されています。アプリケーションから直接Ollama APIを呼び出すことも、Spring AIコンポーネントからOllamaを呼び出すこともできます。このドキュメントを学ぶことで、Ollamaをプロジェクトに簡単に統合することができます。

 

I. 環境準備

JavaでOllama APIを使うには、以下の環境とツールを用意してください:

  • Java開発キット(JDK) JDKバージョン1.8以降をインストールしてください。
  • 建築ツール プロジェクトの依存関係を管理するために、MavenやGradleなどがある。
  • HTTPクライアント・ライブラリ Apache HttpClientやOkHttpなど、適切なHTTPクライアント・ライブラリを選択する。

 

オッラマの直接使用

Ollamaをあなたのアプリケーションに簡単に統合できる、サードパーティが開発したコンポーネントがgithubにたくさんある。 アセデム 例えば、以下の3つのステップを踏むことができる(ここではプロジェクト管理のためにmavenを使用):

  1. pom.xmlにollama依存性を追加する。
<リポジトリ
<リポジトリ
jitpack.io
https://jitpack.io
</リポジトリ
</repositories
<依存関係
<依存関係
com.github.Acedemとなります。
OllamaJavaAPI</artifactId
master-SNAPSHOT</バージョン
</dependency
</dependencies
  1. Ollamaの初期化
// デフォルトではlocalhost:11434に接続します。
Ollama ollama = Ollama.initDefault();
// カスタム値の場合
Ollama ollama = Ollama.init("http://localhost", 11434);
  1. オッラマの使用
  • 対話
String model = "llama2:latest"; // モデルの指定
String prompt = "なぜ空は青いの?"; // プロンプトを指定する
GenerationResponse response = ollama.generate(new GenerationRequest(model, prompt)); // 生成されたレスポンスを表示する。
// 生成されたレスポンスを表示する
System.out.println(response.response());
  • 現地モデル一覧
List models = ollama.listModels(); // Modelオブジェクトのリストを返す。
  • モデル情報の表示
ModelInfo modelInfo = ollama.showInfo("ollama2:latest"); // ModelInfoオブジェクトを返す。
  • レプリケーション・モデル
boolean success = ollama.copy("ollama2:latest", "ollama2-backup"); // コピーに成功したらtrueを返す。
  • モデルの削除
boolean success = ollama.delete("ollama2-backup"); // 削除に成功したらtrue。

 

春のAIでオラマを呼び出す

春のAI入門

Spring AIは、AIエンジニアリングのために設計されたアプリケーションフレームワークです。主な機能は以下の通り:

  • AIプロバイダー間のAPIサポート:Spring AIは、複数のAIサービスプロバイダーのチャット、テキストから画像への変換、組み込みモデルとのインタラクションをサポートするポータブルなAPIセットを提供します。
  • 同期APIとストリーミングAPIのオプション:フレームワークは同期APIとストリーミングAPIをサポートし、開発者に柔軟なインタラクション・メソッドを提供する。
  • モデル固有機能へのアクセス:開発者が設定パラメータを介してモデル固有機能にアクセスできるようにすることで、よりきめ細かな制御が可能になります。

Spring AIを使う

  1. pom.xmlにSpring AI依存性を追加する
<依存関係
<依存関係
io.springboot.aiとなります。
spring-ai-ollama-spring-boot-starterがあります。
1.0.3</バージョン
</dependency
</dependencies

 


注:IDEAを使用してプロジェクトを作成する場合は、直接依存関係を指定することができます、システムは自動的に次の図に示すように、手動で修正する必要はありませんpom.xmlファイルを完了します:

Java-1でOllama APIを使う

 

  1. Spring AIとOllamaの設定をSpring Bootアプリケーションの設定ファイルに追加する。例
ai.
ollama.
base-url: http://localhost:11434
chat: ollama: base-url:
options: ollama: base-url: chat.
モデル: llama3.1:latest
  1. テキスト生成や対話にはOllamaを使う:

まず、Ollama APIを呼び出すSpring Bootコントローラを作成する:

import jakarta.annotation.Resource.ChatResponse; import org springframework.ai.chat.model.ChatResponse
import org.springframework.ai.chat.model.ChatResponse; import org.springframework.ai.chat.model.ChatResponse; import org.springframework.ai.chat.model.ChatResponse
import org.springframework.ai.chat.prompt.チャットプロンプト; import org.springframework.ai.chat.prompt.チャットプロンプト
import org.springframework.ai.ollama.OllamaChatModel; import org.springframework.ai.ollama.chatResponse; import org.springframework.ai.chatResponse
import org.springframework.ai.ollama.api.OllamaOptions; import org.springframework.ai.ollama.api.OllamaChatModel; import org.springframework.ai.ollama.api.OllamaChatModel; import org.springframework.ai.ollama.api.OllamaChatModel
import org.springframework.web.bind.annotation.RequestMapping; import org.springframework.web.bind.annotation.RequestMapping; import org.springframework.web.bind.annotation.RequestMapping
import org.springframework.web.bind.annotation.RequestParam; import org.springframework.web.bind.annotation.RequestMapping; import org.springframework.web.bind.annotation.RequestMapping

@RestController
public class OllamaController {
リソース
private OllamaChatModel ollamaChatModel; @RequestMapping(value); ollamaChatModel; @RestController
@RequestMapping(value = "/ai/ollama")
public Object ollama(@RequestParam(value = "msg") String msg){ チャットレスポンス chatResponse
ChatResponse chatResponse=ollamaChatModel.call(new Prompt(msg, OllamaOptions.create())
.withModel("llama3.1:latest") // どのビッグモデルを使うか指定する
.withTemperature(0.5F)));
System.out.println(chatResponse.getResult().getOutput().getContent());
chatResponse.getResult().getOutput().getContent() を返します;
}
}

次にプロジェクトを実行し、ブラウザにURLを入力する。 http://localhost:8080/ai/ollama?msg= "キュー・ワード" 結果は以下の通り:

Java-2でOllama APIを使う

 

参照文献

シーディーエヌワン
無断転載を禁じます:チーフAIシェアリングサークル " JavaでOllama APIを使う

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語