Aprendizagem pessoal com IA
e orientação prática
豆包Marscode1
Ollama教程合集
26

Coleção de tutoriais da Ollama

Ollama+LangGraph 本地部署学术研究报告生成助手-首席AI分享圈

Ollama+LangGraph Assistente de geração de relatórios de pesquisa acadêmica implantado localmente

Introdução geral O Ollama Deep Researcher é um assistente de geração de relatórios e pesquisa na Web totalmente executado localmente, desenvolvido pela equipe da LangChain. Ele usa um Large Language Model (LLM) arbitrário hospedado pelo Ollama para permitir que os usuários insiram um tópico de pesquisa e, em seguida, gerem automaticamente consultas de pesquisa na Web, coletem...

使用 DeepSeek R1 和 Ollama 实现本地 RAG 应用-首席AI分享圈

Aplicativos RAG nativos com DeepSeek R1 e Ollama

Introdução Este documento detalha como criar um aplicativo RAG (Retrieval Augmented Generation) localizado usando o DeepSeek R1 e o Ollama. Ele também complementa o uso do LangChain para criar aplicativos RAG localizados. Demonstraremos o processo completo de implementação com exemplos, incluindo processamento de documentos, armazenamento de vetores...

Agente local com Ollama+LlamaIndex

Introdução Este documento descreve como usar o ReActAgent no LlamaIndex para implementar um agente local simples em combinação com o Ollama. O LLM usado neste documento é o modelo qwen2:0.5b, porque modelos diferentes têm capacidade diferente de chamar ferramentas, você pode tentar usar um modelo diferente para implementar ...

使用 Ollama+LangChain 实现本地 Agent-首席AI分享圈

Implementação de um agente local com Ollama+LangChain

Introdução O ReAct (Reasoning and Acting) é uma estrutura que combina raciocínio e ação para aprimorar o desempenho das inteligências em tarefas complexas. A estrutura permite que as inteligências realizem tarefas de forma mais eficaz em ambientes dinâmicos, integrando fortemente o raciocínio lógico com a ação prática. Fonte : ReAct: ...

使用 Ollama+LlamaIndex 搭建本地 RAG 应用-首席AI分享圈

Criação de um aplicativo RAG local com Ollama+LlamaIndex

Introdução Este documento detalha como usar a estrutura do LlamaIndex para criar um aplicativo RAG (Retrieval-Augmented Generation) local. Ao integrar o LlamaIndex, é possível criar um sistema RAG em um ambiente local que combine os recursos de recuperação e geração para melhorar a eficiência da recuperação de informações...

Criação de um aplicativo RAG nativo com Ollama+LangChain

Este tutorial pressupõe que você já esteja familiarizado com os seguintes conceitos: Modelos de bate-papo Encadeamento de runnables Embeddings Armazenamentos de vetores Geração aumentada por recuperação Muitos projetos populares, como llama.cpp, Ollama e llamafile, mostraram a importância de executar modelos de linguagem grandes em um ambiente local. O ambiente local para a execução de grandes modelos de linguagem ...

Ollama 本地部署模型接入 Dify-首席AI分享圈

Modelo de implantação local Ollama Access Dify

A Dify oferece suporte ao acesso a recursos de inferência e incorporação de modelos de linguagem em larga escala implantados pelo Ollama. Acesso rápido Faça o download do Ollama Acesse a instalação e a configuração do Ollama e veja os tutoriais de implantação local do Ollama. Execute o Ollama e converse com o Llama ollama run llama3.1 Inicie o...

Ollama 在 LangChain 中的使用 - JavaScript 集成-首席AI分享圈

Ollama em LangChain - Integração com JavaScript

Introdução Este documento descreve como usar o Ollama em um ambiente JavaScript para integrar-se ao LangChain e criar aplicativos avançados de IA. O Ollama é uma ferramenta de implementação de código aberto para grandes modelos de linguagem, enquanto o LangChain é uma estrutura para criar aplicativos baseados em modelos de linguagem. Ao combinar...

Ollama 在 LangChain 中的使用 - Python 集成-首席AI分享圈

Ollama em LangChain - Integração com Python

Introdução Este documento descreve como usar o Ollama em um ambiente Python para se integrar ao LangChain e criar aplicativos avançados de IA. O Ollama é uma ferramenta de implantação de código aberto para modelos de linguagem grandes, enquanto o LangChain é uma estrutura para criar aplicativos baseados em modelos de linguagem. Ao combinar esses dois...

Usando a API Ollama em Golang

Este artigo descreve como usar a API do Ollama em Golang. Este documento foi criado para ajudar os desenvolvedores a se familiarizarem rapidamente e aproveitarem ao máximo os recursos do Ollama. O próprio Ollama foi desenvolvido na linguagem Golang, e o código da interface para a versão da linguagem Golang está disponível no diretório do repositório oficial em https://github.com/olla...

Usando a API Ollama em C++

Este artigo descreve como usar a API do Ollama em C++. Este documento foi criado para ajudar os desenvolvedores de C++ a se familiarizarem rapidamente e aproveitarem ao máximo os recursos do Ollama. Ao estudar este documento, você poderá integrar facilmente o Ollama aos seus projetos. Observe que a comunidade e a documentação do Ollama podem ser mais...

Usando a API Ollama em JavaScript

Este artigo descreve como usar a API do Ollama em JavaScript. Este documento foi criado para ajudar os desenvolvedores a começar rapidamente e aproveitar ao máximo os recursos do Ollama. Você pode usá-lo em um ambiente Node.js ou importar o módulo correspondente diretamente no navegador. Ao estudar este documento, você pode facilmente definir...

在 Java 中使用 Ollama API-首席AI分享圈

Usando a API Ollama em Java

Este artigo descreve como usar a API do Ollama em Java. Este documento foi criado para ajudar os desenvolvedores a começar rapidamente e aproveitar ao máximo os recursos do Ollama. Você pode chamar a API do Ollama diretamente de dentro do seu aplicativo ou pode chamar o Ollama a partir de um componente Spring AI.

Usando a API Ollama em Python

Neste artigo, daremos uma breve olhada em como usar a API do Ollama em Python. Se você quiser ter uma simples conversa de bate-papo, trabalhar com big data usando respostas de streaming ou criar, copiar, excluir modelos etc. localmente, este artigo poderá orientá-lo. Além disso, mostramos...

Ollama API 使用指南-首席AI分享圈

Guia do usuário da API da Ollama

Introdução O Ollama fornece uma API REST avançada que permite que os desenvolvedores interajam facilmente com grandes modelos de linguagem. Com a API do Ollama, os usuários podem enviar solicitações e receber respostas geradas pelo modelo, aplicadas a tarefas como processamento de linguagem natural, geração de texto e assim por diante. Neste documento, apresentaremos os detalhes da geração de complementos, geração de diálogos ...

pt_BRPortuguês do Brasil