AI Personal Learning
und praktische Anleitung
讯飞绘镜
Ollama教程合集
26

Ollama Tutorial Kollektion

Ollama+LangGraph 本地部署学术研究报告生成助手-首席AI分享圈

Ollama+LangGraph Lokal eingesetzter Assistent zur Erstellung akademischer Forschungsberichte

Allgemeine Einführung Ollama Deep Researcher ist ein vollständig lokal laufender Assistent für Web-Recherche und Berichterstellung, der vom LangChain-Team entwickelt wurde. Er verwendet ein beliebiges Large Language Model (LLM), das von Ollama gehostet wird, um es dem Benutzer zu ermöglichen, ein Forschungsthema einzugeben und dann automatisch Web-Suchanfragen zu generieren,...

使用 DeepSeek R1 和 Ollama 实现本地 RAG 应用-首席AI分享圈

Native RAG-Anwendungen mit DeepSeek R1 und Ollama

Einleitung Dieses Dokument beschreibt, wie man eine lokalisierte RAG-Anwendung (Retrieval Augmented Generation) mit DeepSeek R1 und Ollama erstellt. Es ergänzt auch die Verwendung von LangChain zur Erstellung lokalisierter RAG-Anwendungen. Wir werden den gesamten Implementierungsprozess anhand von Beispielen demonstrieren, einschließlich Dokumentenverarbeitung, Vektorspeicherung...

Lokaler Agent mit Ollama+LlamaIndex

Einführung Dieses Dokument beschreibt, wie man ReActAgent in LlamaIndex verwendet, um einen einfachen lokalen Agenten in Kombination mit Ollama zu implementieren. Das in diesem Dokument verwendete LLM ist das qwen2:0.5b-Modell, da verschiedene Modelle unterschiedliche Fähigkeiten haben, Werkzeuge aufzurufen, können Sie versuchen, ein anderes Modell zu verwenden, um ...

使用 Ollama+LangChain 实现本地 Agent-首席AI分享圈

Implementierung eines lokalen Agenten mit Ollama+LangChain

Einführung ReAct (Reasoning and Acting) ist ein Rahmen, der Denken und Handeln kombiniert, um die Leistung von Intelligenzen bei komplexen Aufgaben zu verbessern. Der Rahmen ermöglicht es Intelligenzen, Aufgaben in dynamischen Umgebungen effektiver auszuführen, indem logisches Denken und praktisches Handeln eng miteinander verbunden werden. Quelle : ReAct: ...

使用 Ollama+LlamaIndex 搭建本地 RAG 应用-首席AI分享圈

Aufbau einer lokalen RAG-Anwendung mit Ollama+LlamaIndex

Einleitung In diesem Dokument wird beschrieben, wie das LlamaIndex-Framework verwendet wird, um eine lokale RAG-Anwendung (Retrieval-Augmented Generation) zu erstellen. Durch die Integration von LlamaIndex ist es möglich, ein RAG-System in einer lokalen Umgebung aufzubauen, das die Fähigkeiten von Retrieval und Generation kombiniert, um die Effizienz der Informationsbeschaffung zu verbessern...

Erstellung einer nativen RAG-Anwendung mit Ollama+LangChain

Dieses Tutorial setzt voraus, dass Sie bereits mit den folgenden Konzepten vertraut sind: Chat Models Chaining runnables Embeddings Vector stores Retrieval-augmented generation Viele populäre Projekte wie llama.cpp , Ollama , und llamafile haben gezeigt, wie wichtig es ist, große Sprachmodelle in einer lokalen Umgebung auszuführen. Die lokale Umgebung für die Ausführung großer Sprachmodelle ...

Ollama 本地部署模型接入 Dify-首席AI分享圈

Ollama Local Deployment Model Access Dify

Dify unterstützt den Zugriff auf umfangreiche Sprachmodellinferenz- und Einbettungsfunktionen, die von Ollama bereitgestellt werden. Schnellzugriff Ollama herunterladen Zugriff auf Ollama-Installation und -Konfiguration, Ansicht von Tutorials zur lokalen Bereitstellung von Ollama. Ollama ausführen und mit Llama chatten ollama run llama3.1 Starten Sie...

Ollama 在 LangChain 中的使用 - JavaScript 集成-首席AI分享圈

Ollama in LangChain - Integration von JavaScript

Einführung Dieses Dokument beschreibt die Verwendung von Ollama in einer JavaScript-Umgebung zur Integration mit LangChain, um leistungsstarke KI-Anwendungen zu erstellen.Ollama ist ein Open-Source-Deployment-Tool für große Sprachmodelle, während LangChain ein Framework zur Erstellung von Sprachmodell-basierten Anwendungen ist. Durch die Kombination...

Ollama 在 LangChain 中的使用 - Python 集成-首席AI分享圈

Ollama in LangChain - Python-Integration

Einführung Dieses Dokument beschreibt die Verwendung von Ollama in einer Python-Umgebung zur Integration mit LangChain, um leistungsstarke KI-Anwendungen zu erstellen.Ollama ist ein Open-Source-Implementierungstool für große Sprachmodelle, während LangChain ein Framework zur Erstellung von Sprachmodell-basierten Anwendungen ist. Durch die Kombination dieser beiden...

Verwendung der Ollama API in Golang

Dieser Artikel beschreibt die Verwendung der Ollama-API in Golang und soll Entwicklern helfen, sich schnell zurechtzufinden und die Möglichkeiten von Ollama voll auszuschöpfen.Ollama selbst wird in der Sprache Golang entwickelt, und der Schnittstellencode für die Golang-Version ist im offiziellen Repository-Verzeichnis unter https://github.com/olla... verfügbar.

Verwendung der Ollama-API in C++

Dieser Artikel beschreibt, wie man die Ollama-API in C++ verwendet. Dieses Dokument soll C++-Entwicklern helfen, sich schnell zurechtzufinden und die Möglichkeiten von Ollama voll auszuschöpfen. Wenn Sie dieses Dokument lesen, können Sie Ollama leicht in Ihre Projekte integrieren. Beachten Sie, dass die Ollama-Community und die Dokumentation mehr...

Verwendung der Ollama-API in JavaScript

Dieser Artikel beschreibt, wie man die Ollama-API in JavaScript verwendet. Dieses Dokument soll Entwicklern helfen, schnell loszulegen und die Möglichkeiten von Ollama voll auszuschöpfen. Sie können es in einer Node.js-Umgebung verwenden oder das entsprechende Modul direkt in den Browser importieren. Wenn Sie dieses Dokument studieren, können Sie leicht...

在 Java 中使用 Ollama API-首席AI分享圈

Verwendung der Ollama-API in Java

Dieser Artikel beschreibt die Verwendung der Ollama-API in Java, um Entwicklern einen schnellen Einstieg zu ermöglichen und die Möglichkeiten von Ollama voll auszuschöpfen. Sie können die Ollama-API direkt in Ihrer Anwendung aufrufen, oder Sie können Ollama von einer Spring AI-Komponente aus aufrufen...

Verwendung der Ollama-API in Python

In diesem Artikel werfen wir einen kurzen Blick auf die Verwendung der Ollama-API in Python: Ob Sie eine einfache Chat-Konversation führen, mit Big Data unter Verwendung von Streaming-Antworten arbeiten oder Modelle lokal erstellen, kopieren, löschen usw. möchten, dieser Artikel kann Sie dabei unterstützen. Außerdem zeigen wir...

Ollama API 使用指南-首席AI分享圈

Ollama API Benutzerhandbuch

Einführung Ollama bietet eine leistungsstarke REST-API, die es Entwicklern ermöglicht, auf einfache Weise mit großen Sprachmodellen zu interagieren. Mit der Ollama-API können Benutzer Anfragen senden und Antworten erhalten, die vom Modell generiert wurden und für Aufgaben wie die Verarbeitung natürlicher Sprache, die Textgenerierung usw. verwendet werden. In diesem Papier werden wir die Details der Generierung von Ergänzungen, Dialoggenerierung ...

Ollama 自定义在 GPU 中运行-首席AI分享圈

Ollama-Anpassung läuft auf der GPU

Windows Das folgende Beispiel zeigt, wie man Ollama so anpasst, dass es auf der GPU eines Windows-Systems läuft.Ollama verwendet standardmäßig die CPU für Inferenzen. Um die Inferenz zu beschleunigen, können Sie den von Ollama verwendeten Grafikprozessor konfigurieren....

de_DEDeutsch