Aprendizagem pessoal com IA
e orientação prática
Beanbag Marscode1

Conhecimento de IA

GTR 框架:基于异构图和分层检索的跨表问答新方法-首席AI分享圈

A estrutura GTR: uma nova abordagem para perguntas e respostas entre tabelas com base em gráficos heterogêneos e recuperação hierárquica

1. INTRODUÇÃO Na atual explosão de informações, uma grande quantidade de conhecimento é armazenada na forma de tabelas em páginas da Web, na Wikipédia e em bancos de dados relacionais. No entanto, os sistemas tradicionais de perguntas e respostas geralmente têm dificuldades para lidar com consultas complexas em várias tabelas, o que se tornou um grande desafio no campo da inteligência artificial. Para enfrentar esse desafio, os pesquisadores ...

EQ-Bench 如何评估大型语言模型的情商与创造力-首席AI分享圈

EQ-Bench Como avaliar a inteligência emocional e a criatividade em grandes modelos de linguagem

Como os recursos dos modelos de linguagem ampla (LLMs) estão evoluindo rapidamente, os testes de benchmark tradicionais, como o MMLU, estão gradualmente mostrando suas limitações para distinguir os melhores modelos. Com base apenas em questionários de conhecimento ou testes padronizados, tornou-se difícil medir de forma abrangente os recursos diferenciados dos modelos que são cruciais nas interações do mundo real, como inteligência emocional, criatividade e...

突破工具调用瓶颈:CoTools 框架助力大型语言模型高效利用海量工具-首席AI分享圈

Eliminando o gargalo das chamadas de ferramentas: a estrutura CoTools permite que grandes modelos de linguagem utilizem eficientemente grandes quantidades de ferramentas

INTRODUÇÃO Nos últimos anos, os Modelos de Linguagem Grande (LLMs) fizeram um progresso impressionante no campo da Inteligência Artificial (IA), e seus poderosos recursos de compreensão e geração de linguagem levaram a uma ampla gama de aplicações em vários domínios. No entanto, os LLMs ainda enfrentam muitos desafios ao lidar com tarefas complexas que exigem a invocação de ferramentas externas. Por exemplo, ...

comandos comuns uv

O ecossistema Python sempre teve uma escassez de ferramentas de gerenciamento de pacotes e de ambiente, desde o clássico pip e virtualenv, passando pelo pip-tools e conda, até o moderno Poetry e PDM. Cada uma dessas ferramentas tem sua própria área de especialização, mas elas geralmente tornam a cadeia de ferramentas de um desenvolvedor fragmentada e complexa. Agora, com o A...

为何多智能体协作系统更容易出错?-首席AI分享圈

Por que os sistemas colaborativos de inteligência múltipla são mais propensos a erros?

INTRODUÇÃO Nos últimos anos, os sistemas multiinteligentes (MAS) têm atraído muita atenção no campo da inteligência artificial. Esses sistemas tentam resolver tarefas complexas e de várias etapas por meio da colaboração de várias inteligências de Modelo de Linguagem Grande (LLM). No entanto, apesar das grandes expectativas em relação aos MAS, seu desempenho em aplicações do mundo real não foi ...

Anthropic 深度剖析 Claude:揭示大型语言模型的的决策与推理过程-首席AI分享圈

Anthropic Deep Dive Claude: revelando processos de tomada de decisão e raciocínio em grandes modelos de linguagem

Os modelos de linguagem grande (LLMs), como o Claude, não são criados por humanos que escrevem código de programação direto, mas são treinados com base em grandes quantidades de dados. No processo, os modelos aprendem suas próprias estratégias para resolver problemas. Essas estratégias estão ocultas nos bilhões de cálculos que o modelo realiza para gerar cada palavra para...

DeepRetrieval:强化学习驱动的高效信息检索查询生成-首席AI分享圈

DeepRetrieval: geração eficiente de consultas de recuperação de informações impulsionada pelo aprendizado por reforço

Resumo Os sistemas de recuperação de informações são essenciais para o acesso eficiente a grandes coleções de documentos. Abordagens recentes usam modelos de linguagem ampla (LLMs) para melhorar o desempenho da recuperação por meio do aumento da consulta, mas geralmente dependem de técnicas caras de aprendizado supervisionado ou destilação que exigem recursos computacionais significativos e dados rotulados manualmente. Em ...

OpenAI发布:大型语言模型如何监控自身的不当行为-首席AI分享圈

Lançamento da OpenAI: Como os modelos de linguagem de grande porte monitoram a si mesmos em busca de comportamento inadequado

Os modelos de raciocínio de grande porte (LLMs) exploram vulnerabilidades quando têm a oportunidade. Pesquisas demonstraram que essas explorações podem ser detectadas com o uso de modelos de linguagem ampla (LLMs) para monitorar suas cadeias de pensamento (CoT). Punir os modelos por "pensamentos ruins" não impede a maior parte do comportamento inadequado, mas faz com que eles escondam suas intenções. ...

LazyGraphRAG:大幅优化 GraphRAG 的质量与成本-首席AI分享圈

LazyGraphRAG: otimizando drasticamente a qualidade e o custo do GraphRAG

O projeto GraphRAG tem como objetivo ampliar a gama de perguntas que os sistemas de IA podem responder em conjuntos de dados privados, explorando relações implícitas em textos não estruturados. Uma das principais vantagens do GraphRAG em relação ao RAG vetorial tradicional (ou "pesquisa semântica") é sua capacidade de responder a consultas globais em conjuntos de dados inteiros, como...

DeepSearch/DeepResearch中最优文本段选择和URL重排-首席AI分享圈

Seleção ideal de segmentos de texto e reorganização de URLs no DeepSearch/DeepResearch

Se você já leu o último artigo clássico de Jina, "Design and Implementation of DeepSearch/DeepResearch", talvez queira se aprofundar em alguns detalhes que podem melhorar significativamente a qualidade das respostas. Desta vez, vamos nos concentrar em dois detalhes: extração de segmentos de texto ideais de páginas da Web longas: como usar a...

Gemma 3 技术报告中文版-首席AI分享圈

Relatório técnico Gemma 3 Versão em chinês

Gemma 3 Resumo das principais informações I. Principais métricas Parâmetros Detalhes Tamanho do modelo 100 milhões a 27 bilhões de parâmetros em quatro versões: 1B, 4B, 12B, 27B Arquitetura Arquitetura específica de decodificador baseada em transformador herdada do Gemma 2 com vários aprimoramentos Recursos multimodais Suporte para texto e imagem...

IDProtector:保护人像照片免受AI生成技术滥用的方法-首席AI分享圈

IDProtector: uma maneira de proteger retratos contra o abuso da tecnologia gerada por IA

1. histórico e problemas Com o rápido desenvolvimento das tecnologias de inteligência artificial (IA), especialmente o avanço dos modelos de difusão, a IA conseguiu gerar imagens de retratos muito realistas. Por exemplo, tecnologias como o InstantID exigem apenas uma foto para gerar várias imagens novas com os mesmos recursos de identidade. No entanto, esse tipo de tecnologia...

长文本向量模型在4K Tokens 之外形同盲区?-首席AI分享圈

Modelos de vetores de texto longo que não conseguem enxergar além dos tokens 4K?

O NoLiMA, lançado em fevereiro de 2025, é um método de Modelo de Linguagem Grande (LLM) para avaliar a compreensão de textos longos. Ao contrário dos testes tradicionais Needle-in-a-Haystack (NIAH), que se baseiam na correspondência de palavras-chave, o NoLiMA é caracterizado por perguntas cuidadosamente elaboradas e informações-chave que forçam...

LangChain vs. LangGraph:官方告诉你该如何选择-首席AI分享圈

LangChain vs. LangGraph: os funcionários dizem o que você deve escolher

Atualmente, o campo da IA generativa está evoluindo rapidamente, com o surgimento de novas estruturas e tecnologias. Portanto, os leitores precisam estar cientes de que o conteúdo apresentado neste documento pode ser sensível ao tempo. Neste artigo, daremos uma olhada detalhada nas duas estruturas dominantes para a criação de aplicativos LLM, LangChain e LangGraph, e analisaremos seus pontos fortes e fracos,...

MCP Server、Function Call 与 Agent 的协同与差异-首席AI分享圈

Sinergias e diferenças entre o servidor MCP, a chamada de função e o agente

Compreender os três conceitos principais de Servidor MCP, Chamada de Função e Agente é essencial no campo crescente da Inteligência Artificial (IA), especialmente os Modelos de Linguagem Grande (LLMs). Eles são os pilares de um sistema de IA, e cada um tem uma função única e inter-relacionada a desempenhar. Uma compreensão mais aprofundada deles...

pt_BRPortuguês do Brasil