AIパーソナル・ラーニング
と実践的なガイダンス
讯飞绘镜
Ollama教程合集
26

チュートリアル・コレクション

Ollama+LangGraph 本地部署学术研究报告生成助手-首席AI分享圈

Ollama+LangGraph 学術研究レポート作成アシスタントのローカル展開

概要 Ollama Deep Researcherは、LangChainチームによって開発された、完全にローカルで動作するウェブリサーチとレポート生成アシスタントです。Ollamaがホストする任意の大規模言語モデル(LLM)を使用し、ユーザが研究トピックを入力すると、自動的にウェブ検索クエリを生成し、レポートを収集します。

使用 DeepSeek R1 和 Ollama 实现本地 RAG 应用-首席AI分享圈

DeepSeek R1とOllamaによるネイティブRAGアプリケーション

はじめに このドキュメントでは、DeepSeek R1 と Ollama を使用して、ローカライズされた RAG (Retrieval Augmented Generation) アプリケーションを構築する方法について詳しく説明します。また、LangChainを使用してローカライズされたRAGアプリケーションを構築する方法を補足します。 ドキュメント処理、ベクトル・ストレージを含む、完全な実装フローを例を挙げて説明します。

Ollama+LlamaIndexによるローカルエージェント

はじめに このドキュメントでは、LlamaIndexのReActAgentを使用して、Ollamaと組み合わせてシンプルなローカルエージェントを実装する方法を説明します。 このドキュメントで使用するLLMはqwen2:0.5bモデルです。モデルによってツールを呼び出す機能が異なるため、別のモデルを使用して実装を試すことができます。

使用 Ollama+LangChain 实现本地 Agent-首席AI分享圈

Ollama+LangChainによるローカルエージェントの実装

はじめに ReAct(Reasoning and Acting)は、複雑なタスクにおける知能のパフォーマンスを向上させるために、推論と行動を組み合わせたフレームワークである。このフレームワークは、論理的な推論と実践的な行動を緊密に統合することで、知能がダイナミックな環境でより効果的にタスクを実行することを可能にします。 出典:ReAct:...

使用 Ollama+LlamaIndex 搭建本地 RAG 应用-首席AI分享圈

Ollama+LlamaIndexによるローカルRAGアプリケーションの構築

はじめに このドキュメントでは、LlamaIndexフレームワークを使用して、ローカルなRAG(Retrieval-Augmented Generation)アプリケーションを構築する方法について詳しく説明します。LlamaIndexを統合することで、検索と生成の機能を組み合わせ、情報検索の効率を向上させるRAGシステムをローカル環境で構築することができる...

Ollama+LangChainによるネイティブRAGアプリケーションの構築

このチュートリアルでは、以下の概念に既に精通していることを前提としています: チャットモデル ランナブルの連鎖 エンベッディング ベクターストア 検索による拡張生成 llama.cpp 、 Ollama 、 llamafile などの多くの人気プロジェクトは、大規模な言語モデルをローカル環境で実行することの重要性を示しています。大規模な言語モデルを実行するためのローカル環境 ...

Ollama 本地部署模型接入 Dify-首席AI分享圈

Ollamaローカル展開モデル アクセス Dify

Difyは、Ollamaによって展開される大規模な言語モデルの推論と埋め込み機能へのアクセスをサポートします。 クイックアクセス Ollamaのダウンロード Ollamaのインストールと設定、Ollamaのローカル展開のチュートリアルをご覧ください。 Ollamaを実行し、Llamaとチャットする ollama run llama3.1 起動...

Ollama 接入本地 AI Copilot 编程助手-首席AI分享圈

Ollama、AIコパイロット・プログラミング・アシスタントにアクセス

はじめに このドキュメントでは、より美しく効率的なコードを書くために、ローカルのCopilotのようなプログラミング・アシスタントを構築する方法について説明します。 このコースでは、Continue Aiderを含むローカル・プログラミング・アシスタントを統合するためにOllamaを使用する方法を学びます。

Ollama 在 LangChain 中的使用 - JavaScript 集成-首席AI分享圈

LangChainのOllama - JavaScriptの統合

はじめに このドキュメントでは、JavaScript環境でOllamaを使用し、LangChainと統合して強力なAIアプリケーションを作成する方法について説明します。Ollamaは大規模な言語モデルのためのオープンソースのデプロイツールであり、LangChainは言語モデルベースのアプリケーションを構築するためのフレームワークです。Ollamaは大規模言語モデルのためのオープンソースのデプロイツールであり、LangChainは言語モデルベースのアプリケーションを構築するためのフレームワークです。

Ollama 在 LangChain 中的使用 - Python 集成-首席AI分享圈

LangChainのOllama - Pythonとの統合

はじめに このドキュメントでは、Python環境でOllamaを使用してLangChainと統合し、強力なAIアプリケーションを作成する方法について説明します。Ollamaは大規模な言語モデルのためのオープンソースのデプロイツールであり、LangChainは言語モデルベースのアプリケーションを構築するためのフレームワークです。この2つを組み合わせることで...

GolangでOllama APIを使う

この記事では、GolangでOllama APIを使う方法について説明します。このドキュメントは、開発者が素早くスピードアップしてOllamaの機能を最大限に活用できるように設計されています。Ollama自体はGolang言語で開発されており、Golang言語版のインターフェース・コードは公式リポジトリのディレクトリ https://github.com/olla...

C++でOllama APIを使う

この記事では、C++でOllama APIを使用する方法について説明します。このドキュメントは、C++開発者が素早くスピードアップし、Ollamaの機能をフルに活用できるように設計されています。このドキュメントを学ぶことで、あなたのプロジェクトにOllamaを簡単に組み込むことができます。 なお、Ollamaのコミュニティやドキュメントは、Ollamaをより深く理解するためのものです。

JavaScriptでOllama APIを使う

この記事では、JavaScript で Ollama API を使用する方法について説明します。このドキュメントは、開発者がすぐに使い始められ、Ollama の機能を最大限に活用できるように設計されています。Node.js環境で使用することも、ブラウザで対応するモジュールを直接インポートすることもできます。このドキュメントを学ぶことで、簡単にOllama APIを設定することができます。

在 Java 中使用 Ollama API-首席AI分享圈

JavaでOllama APIを使う

この記事では、JavaでOllama APIを使用する方法について説明します。このドキュメントは、開発者がすぐに始められ、Ollamaの機能を最大限に活用できるように設計されています。アプリケーションから直接Ollama APIを呼び出すことも、Spring AIコンポーネントからOllamaを呼び出すこともできます。

PythonでOllama APIを使う

この記事では、PythonでOllama APIを使う方法を簡単に紹介します。簡単なチャット会話をしたい場合、ストリーミング応答を使ってビッグデータを扱いたい場合、モデルの作成、コピー、削除などをローカルで行いたい場合など、この記事を読めばガイドがわかります。加えて、この記事では...

Ollama API 使用指南-首席AI分享圈

Ollama API ユーザーガイド

はじめに Ollamaは、開発者が大規模な言語モデルと簡単にやりとりできる強力なREST APIを提供する。Ollama APIを使えば、ユーザは自然言語処理やテキスト生成などのタスクに適用されたモデルによって生成されたリクエストを送信し、レスポンスを受け取ることができる。本稿では、補語の生成、対話の生成...

Ollama 自定义在 GPU 中运行-首席AI分享圈

GPUで動作するOllamaのカスタマイズ

Ollamaはデフォルトで推論にCPUを使用します。より高速な推論を行うために、Ollamaが使用するGPUを設定することができます。より高速な推論を行うために、Ollamaが使用するGPUを設定することができます。このチュートリアルでは、Windows上でリングを設定する方法を説明します。

ja日本語