Introdução geral O Ollama Deep Researcher é um assistente de geração de relatórios e pesquisa na Web totalmente executado localmente, desenvolvido pela equipe da LangChain. Ele usa um Large Language Model (LLM) arbitrário hospedado pelo Ollama para permitir que os usuários insiram um tópico de pesquisa e, em seguida, gerem automaticamente consultas de pesquisa na Web, coletem...
Introdução Este documento detalha como criar um aplicativo RAG (Retrieval Augmented Generation) localizado usando o DeepSeek R1 e o Ollama. Ele também complementa o uso do LangChain para criar aplicativos RAG localizados. Demonstraremos o processo completo de implementação com exemplos, incluindo processamento de documentos, armazenamento de vetores...
Habilite o modo de programação inteligente Builder, uso ilimitado do DeepSeek-R1 e DeepSeek-V3, experiência mais suave do que a versão internacional. Basta digitar os comandos chineses, sem conhecimento de programação, para escrever seus próprios aplicativos.
Introdução Este documento descreve como usar o ReActAgent no LlamaIndex para implementar um agente local simples em combinação com o Ollama. O LLM usado neste documento é o modelo qwen2:0.5b, porque modelos diferentes têm capacidade diferente de chamar ferramentas, você pode tentar usar um modelo diferente para implementar ...
Introdução O ReAct (Reasoning and Acting) é uma estrutura que combina raciocínio e ação para aprimorar o desempenho das inteligências em tarefas complexas. A estrutura permite que as inteligências realizem tarefas de forma mais eficaz em ambientes dinâmicos, integrando fortemente o raciocínio lógico com a ação prática. Fonte : ReAct: ...
Introdução Este documento detalha como usar a estrutura do LlamaIndex para criar um aplicativo RAG (Retrieval-Augmented Generation) local. Ao integrar o LlamaIndex, é possível criar um sistema RAG em um ambiente local que combine os recursos de recuperação e geração para melhorar a eficiência da recuperação de informações...
Este tutorial pressupõe que você já esteja familiarizado com os seguintes conceitos: Modelos de bate-papo Encadeamento de runnables Embeddings Armazenamentos de vetores Geração aumentada por recuperação Muitos projetos populares, como llama.cpp, Ollama e llamafile, mostraram a importância de executar modelos de linguagem grandes em um ambiente local. O ambiente local para a execução de grandes modelos de linguagem ...
A Dify oferece suporte ao acesso a recursos de inferência e incorporação de modelos de linguagem em larga escala implantados pelo Ollama. Acesso rápido Faça o download do Ollama Acesse a instalação e a configuração do Ollama e veja os tutoriais de implantação local do Ollama. Execute o Ollama e converse com o Llama ollama run llama3.1 Inicie o...
Introdução Este documento descreve como criar um assistente de programação local do tipo Copilot para ajudá-lo a escrever códigos mais bonitos e eficientes. Neste curso, você aprenderá a usar o Ollama para integrar assistentes de programação locais, incluindo o Continue Aider Observação: Vamos nos concentrar no VScode...
I. Implantando com o Node.js 1. Instalando o Node.js Faça o download e instale a ferramenta Node.js: https://www.nodejs.com.cn/download.html Defina a fonte espelho, por exemplo, use a seguinte fonte espelho. npm config set registry http://mirrors.cloud.tencent.com/np...
I. Estrutura de diretórios Na pasta C6 do notebook do repositório: fastapi_chat_app/ │ ├── app.py ├── websocket_handler.py ├── static/ │ └── index.html └── requirements.txt app.py FastAPI Configurações principais e roteamento do aplicativo. webso...
Introdução Este documento descreve como usar o Ollama em um ambiente JavaScript para integrar-se ao LangChain e criar aplicativos avançados de IA. O Ollama é uma ferramenta de implementação de código aberto para grandes modelos de linguagem, enquanto o LangChain é uma estrutura para criar aplicativos baseados em modelos de linguagem. Ao combinar...
Introdução Este documento descreve como usar o Ollama em um ambiente Python para se integrar ao LangChain e criar aplicativos avançados de IA. O Ollama é uma ferramenta de implantação de código aberto para modelos de linguagem grandes, enquanto o LangChain é uma estrutura para criar aplicativos baseados em modelos de linguagem. Ao combinar esses dois...
Este artigo descreve como usar a API do Ollama em Golang. Este documento foi criado para ajudar os desenvolvedores a se familiarizarem rapidamente e aproveitarem ao máximo os recursos do Ollama. O próprio Ollama foi desenvolvido na linguagem Golang, e o código da interface para a versão da linguagem Golang está disponível no diretório do repositório oficial em https://github.com/olla...
Este artigo descreve como usar a API do Ollama em C++. Este documento foi criado para ajudar os desenvolvedores de C++ a se familiarizarem rapidamente e aproveitarem ao máximo os recursos do Ollama. Ao estudar este documento, você poderá integrar facilmente o Ollama aos seus projetos. Observe que a comunidade e a documentação do Ollama podem ser mais...
Este artigo descreve como usar a API do Ollama em JavaScript. Este documento foi criado para ajudar os desenvolvedores a começar rapidamente e aproveitar ao máximo os recursos do Ollama. Você pode usá-lo em um ambiente Node.js ou importar o módulo correspondente diretamente no navegador. Ao estudar este documento, você pode facilmente definir...
Este artigo descreve como usar a API do Ollama em Java. Este documento foi criado para ajudar os desenvolvedores a começar rapidamente e aproveitar ao máximo os recursos do Ollama. Você pode chamar a API do Ollama diretamente de dentro do seu aplicativo ou pode chamar o Ollama a partir de um componente Spring AI.
Neste artigo, daremos uma breve olhada em como usar a API do Ollama em Python. Se você quiser ter uma simples conversa de bate-papo, trabalhar com big data usando respostas de streaming ou criar, copiar, excluir modelos etc. localmente, este artigo poderá orientá-lo. Além disso, mostramos...
Introdução O Ollama fornece uma API REST avançada que permite que os desenvolvedores interajam facilmente com grandes modelos de linguagem. Com a API do Ollama, os usuários podem enviar solicitações e receber respostas geradas pelo modelo, aplicadas a tarefas como processamento de linguagem natural, geração de texto e assim por diante. Neste documento, apresentaremos os detalhes da geração de complementos, geração de diálogos ...
Windows A seguir, um exemplo de como personalizar o Ollama para ser executado na GPU em um sistema Windows. Para obter uma inferência mais rápida, você pode configurar a GPU usada pelo Ollama. Este tutorial o orientará sobre como configurar o anel em um sistema Windows...
Não consegue encontrar ferramentas de IA? Tente aqui!
Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.