AI Personal Learning
und praktische Anleitung
豆包Marscode1

Praktische AI-Tutorials Seite 2

Ollama 在 LangChain 中的使用 - JavaScript 集成-首席AI分享圈

Ollama in LangChain - Integration von JavaScript

Einführung Dieses Dokument beschreibt die Verwendung von Ollama in einer JavaScript-Umgebung zur Integration mit LangChain, um leistungsstarke KI-Anwendungen zu erstellen.Ollama ist ein Open-Source-Deployment-Tool für große Sprachmodelle, während LangChain ein Framework zur Erstellung von Sprachmodell-basierten Anwendungen ist. Durch die Kombination...

Ollama 在 LangChain 中的使用 - Python 集成-首席AI分享圈

Ollama in LangChain - Python-Integration

Einführung Dieses Dokument beschreibt die Verwendung von Ollama in einer Python-Umgebung zur Integration mit LangChain, um leistungsstarke KI-Anwendungen zu erstellen.Ollama ist ein Open-Source-Implementierungstool für große Sprachmodelle, während LangChain ein Framework zur Erstellung von Sprachmodell-basierten Anwendungen ist. Durch die Kombination dieser beiden...

Verwendung der Ollama API in Golang

Dieser Artikel beschreibt die Verwendung der Ollama-API in Golang und soll Entwicklern helfen, sich schnell zurechtzufinden und die Möglichkeiten von Ollama voll auszuschöpfen.Ollama selbst wird in der Sprache Golang entwickelt, und der Schnittstellencode für die Golang-Version ist im offiziellen Repository-Verzeichnis unter https://github.com/olla... verfügbar.

Verwendung der Ollama-API in C++

Dieser Artikel beschreibt, wie man die Ollama-API in C++ verwendet. Dieses Dokument soll C++-Entwicklern helfen, sich schnell zurechtzufinden und die Möglichkeiten von Ollama voll auszuschöpfen. Wenn Sie dieses Dokument lesen, können Sie Ollama leicht in Ihre Projekte integrieren. Beachten Sie, dass die Ollama-Community und die Dokumentation mehr...

Verwendung der Ollama-API in JavaScript

Dieser Artikel beschreibt, wie man die Ollama-API in JavaScript verwendet. Dieses Dokument soll Entwicklern helfen, schnell loszulegen und die Möglichkeiten von Ollama voll auszuschöpfen. Sie können es in einer Node.js-Umgebung verwenden oder das entsprechende Modul direkt in den Browser importieren. Wenn Sie dieses Dokument studieren, können Sie leicht...

在 Java 中使用 Ollama API-首席AI分享圈

Verwendung der Ollama-API in Java

Dieser Artikel beschreibt die Verwendung der Ollama-API in Java, um Entwicklern einen schnellen Einstieg zu ermöglichen und die Möglichkeiten von Ollama voll auszuschöpfen. Sie können die Ollama-API direkt in Ihrer Anwendung aufrufen, oder Sie können Ollama von einer Spring AI-Komponente aus aufrufen...

Verwendung der Ollama-API in Python

In diesem Artikel werfen wir einen kurzen Blick auf die Verwendung der Ollama-API in Python: Ob Sie eine einfache Chat-Konversation führen, mit Big Data unter Verwendung von Streaming-Antworten arbeiten oder Modelle lokal erstellen, kopieren, löschen usw. möchten, dieser Artikel kann Sie dabei unterstützen. Außerdem zeigen wir...

带你体验 Gemini 2.0 Flash 原生图像生成与编辑能力-首席AI分享圈

Erleben Sie die nativen Bilderzeugungs- und -bearbeitungsfunktionen von Gemini 2.0 Flash.

Im vergangenen Dezember wurde Gemini 2.0 Flash mit seinen nativen Bildausgabefunktionen erstmals ausgewählten Beta-Testern vorgestellt. Entwickler können diese neue Funktion nun in allen Bereichen erleben, die von Google AI Studio unterstützt werden. Entwickler können auf Gemini 2.0 Flash über Google AI Studio zugreifen (gemini-2.0-flash-exp ...

Ollama API 使用指南-首席AI分享圈

Ollama API Benutzerhandbuch

Einführung Ollama bietet eine leistungsstarke REST-API, die es Entwicklern ermöglicht, auf einfache Weise mit großen Sprachmodellen zu interagieren. Mit der Ollama-API können Benutzer Anfragen senden und Antworten erhalten, die vom Modell generiert wurden und für Aufgaben wie die Verarbeitung natürlicher Sprache, die Textgenerierung usw. verwendet werden. In diesem Papier werden wir die Details der Generierung von Ergänzungen, Dialoggenerierung ...

Ollama 自定义在 GPU 中运行-首席AI分享圈

Ollama-Anpassung läuft auf der GPU

Windows Das folgende Beispiel zeigt, wie man Ollama so anpasst, dass es auf der GPU eines Windows-Systems läuft.Ollama verwendet standardmäßig die CPU für Inferenzen. Um die Inferenz zu beschleunigen, können Sie den von Ollama verwendeten Grafikprozessor konfigurieren....

Ollama 自定义模型存储位置-首席AI分享圈

Ollama Customized Model Lagerorte

Nehmen Sie Windows als Beispiel, die von Ollama abgerufenen Modelle werden standardmäßig im Laufwerk C gespeichert. Wenn Sie mehr als ein Modell abrufen müssen, wird das Laufwerk C voll sein, was den Speicherplatz des Laufwerks C beeinträchtigt. Daher wird in diesem Abschnitt erläutert, wie man das Ollama-Modell unter Windows, Linux und MacOS anpasst...

Ollama 自定义导入模型-首席AI分享圈

Ollama Custom Import Modell

Einleitung In diesem Abschnitt lernen wir, wie man Modelfile benutzt, um den Import von Modellen anzupassen. Er ist in folgende Abschnitte unterteilt: Importieren von GGUF Importieren von Pytorch oder Safetensors Importieren von Modellen direkt Importieren von Modellen Anpassen von Prompts I. Importieren von GGUF Importieren von GGUF (GPT-Generated Unified ...

Ollama 安装与配置 - docker 篇-首席AI分享圈

Ollama Installation und Konfiguration - Docker-Artikel

Einführung In diesem Abschnitt erfahren Sie, wie Sie die Installation und Konfiguration von Ollama in Docker durchführen. Docker ist eine virtualisierte Containertechnologie, die auf Images basiert und verschiedene Container in Sekundenschnelle starten kann. Jeder dieser Container ist eine vollständige Laufzeitumgebung, die eine Isolierung zwischen den Containern ermöglicht. Ollama Download ...

Ollama 安装与配置 - Linux 系统篇-首席AI分享圈

Ollama Installation und Konfiguration - Linux System

Einführung In diesem Abschnitt erfahren Sie, wie Sie Ollama auf einem Linux-System installieren und konfigurieren, Ollama aktualisieren, versionsspezifisch installieren, Protokolle einsehen und deinstallieren. I. Schnellinstallation von Ollama Download: https://ollama.com/download Offizielle Homepage von Ollama: https://ollama....

Ollama 安装与配置 - Windows 系统篇-首席AI分享圈

Ollama Installation und Konfiguration - Windows-Systeme

Einführung Dieser Abschnitt lernt, wie man die Installation und Konfiguration von Ollama im Windows-System abschließt, ist in die folgenden Teile unterteilt: Besuchen Sie die offizielle Website, um den Download direkt abzuschließen Konfiguration der Umgebungsvariablen Führen Sie Ollama aus, um den Erfolg der Installation zu überprüfen 🎉 Besuchen Sie zunächst die offizielle Website, um den Download direkt abzuschließen Besuchen Sie die offizielle Homepage von Ollama unter ...

Ollama 安装与配置 - macOS 系统篇-首席AI分享圈

Ollama Installation und Konfiguration - macOS Systeme

Einführung In diesem Abschnitt werden wir lernen, wie die Installation und Konfiguration von Ollama in macOS-System, das vor allem in die folgenden drei Teile unterteilt ist abzuschließen: Besuchen Sie die offizielle Website, um den Download direkt Run Ollama Installation Enchanted a. Besuchen Sie die offizielle Website, um den Download direkt Besuchen Sie die offizielle Homepage von Ollama Download: https://ollama.com/d...

Ollama 安装与使用详细教学-首席AI分享圈

Tutorial zur Installation und Verwendung von Ollama

Ich habe schon viele Anleitungen zur Installation und zum Einsatz von Ollama veröffentlicht, aber die Informationen sind ziemlich bruchstückhaft. Dieses Mal habe ich eine komplette Anleitung in einem Schritt zusammengestellt, wie man Ollama auf einem lokalen Computer verwendet. Dieses Tutorial richtet sich an Anfänger, um zu vermeiden, in Pfützen zu treten, und wir empfehlen, die offizielle Ollama-Dokumentation zu lesen, wenn Sie dazu in der Lage sind. Als nächstes werde ich Schritt für Schritt vorgehen...

Dify 搭建私有数据可视化分析智能体-首席AI分享圈

Dify baut private Datenvisualisierung und analytische Intelligenz auf

Die Technologie der künstlichen Intelligenz entwickelt sich ständig weiter, und die Chat-Apps werden von Tag zu Tag mit mehr Funktionen ausgestattet. Kürzlich hat die Dify-Plattform ein bemerkenswertes Update mit einer neu veröffentlichten Chat-App herausgebracht, die Datenvisualisierung und -analyse direkt in Unterhaltungen ermöglicht und den Nutzern ein intuitiveres und effizienteres Kommunikationserlebnis bietet. Obwohl der Titel des Artikels die Funktion erwähnt,...

Dify工作流:告别繁琐 API 对接,一键生成代码与查询参数-首席AI分享圈

Dify Workflow: Verabschieden Sie sich von umständlichem API-Docking, generieren Sie Code und Abfrageparameter mit einem Klick

Im digitalen Zeitalter sind APIs (Application Programming Interfaces) zum Eckpfeiler der Interaktion zwischen verschiedenen Softwaresystemen geworden. Allerdings sind traditionelle API-Schnittstellenmethoden oft ineffizient und frustrierend für Entwickler. Waren Sie schon einmal mit den folgenden Problemen konfrontiert: Dokumentation: Die Schnittstellendokumentation ist undurchsichtig und schwer verständlich, die Parameterbeschreibungen sind mehrdeutig ...

de_DEDeutsch