Aprendizagem pessoal com IA
e orientação prática
Beanbag Marscode1

Conhecimento de IA Página 3

RIG(检索交错生成):边查边写的检索策略,适合查询实时数据-首席AI分享圈

RIG (Retrieval Interleaved Generation): uma estratégia de recuperação de escrita durante a pesquisa, adequada para consultar dados em tempo real

Núcleo de tecnologia: Retrieval Interleaved Generation (RIG) O que é o RIG? O RIG é uma metodologia de geração inovadora projetada para resolver o problema de alucinação no processamento de dados estatísticos por grandes modelos de linguagem. Os modelos tradicionais podem gerar números ou fatos imprecisos a partir do nada, enquanto...

精通 RAG 文档分块策略:构建高效检索系统的分块策略指南-首席AI分享圈

Dominando a fragmentação de documentos RAG: um guia de estratégias de fragmentação para a criação de sistemas de recuperação eficientes

Se o seu aplicativo RAG não estiver produzindo os resultados desejados, talvez seja hora de rever a sua estratégia de fragmentação. Uma melhor divisão em blocos significa pesquisas mais precisas e, em última análise, respostas de maior qualidade. No entanto, a fragmentação não é uma técnica única, e nenhuma abordagem é absolutamente ideal. Você precisará adaptar sua...

Chunking agêntico: Chunking de texto semântico orientado por agentes de IA

Introdução A fragmentação de texto desempenha um papel fundamental no domínio de aplicação dos Modelos de Linguagem Ampla (LLMs), especialmente nos sistemas de Geração Aumentada de Recuperação (RAG). A qualidade da fragmentação do texto está diretamente relacionada à validade das informações contextuais, o que, por sua vez, afeta a precisão e a integridade das respostas geradas pelos LLMs...

ZEP-Graphiti: uma arquitetura de gráfico de conhecimento temporal para memória em inteligência

Quick Reads O desafio da memória de IA e a inovação do Zep Os agentes de IA (AI Agents) enfrentam gargalos de memória em tarefas complexas. Os agentes de IA tradicionais baseados no modelo de linguagem grande (LLM) são limitados por janelas contextuais que dificultam a integração eficaz do histórico de diálogo de longo prazo e dos dados dinâmicos, limitando o desempenho e tornando-os propensos a alucinações.

盘点与 Ollama 类似的 LLM 框架:本地部署大模型的多元选择-首席AI分享圈

Inventário de estruturas LLM semelhantes ao Ollama: várias opções para modelos grandes implantados localmente

O surgimento da estrutura Ollama certamente atraiu muita atenção no campo da inteligência artificial e dos modelos de linguagem grandes (LLMs). Essa estrutura de código aberto tem como foco simplificar a implementação e a operação de modelos de linguagem grandes localmente, facilitando a experiência de mais desenvolvedores com o apelo dos LLMs. No entanto, olhando para o mercado, a Ollama não está sozinha...

解惑o1、DeepSeek-R1之类推理模型到底有没有在思考?-首席AI分享圈

Resolvendo a confusão o1, os modelos de inferência como o DeepSeek-R1 estão pensando ou não?

Encontrei um artigo interessante, intitulado "Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs" (Os pensamentos estão por toda parte: sobre o pensamento insuficiente de LLMs do tipo o1), cujo tema é analisar o modelo de raciocínio do tipo o1, a troca frequente de caminhos de pensamento e a falta de foco no pensamento, denominada "pensamento insuficiente". O tópico é analisar a troca frequente de caminhos de raciocínio do modelo de raciocínio do tipo o1 e a falta de foco no pensamento, conhecida como "underthinking", e, ao mesmo tempo, apresentar uma solução para aliviar ...

模型量化是什么:FP32, FP16, INT8, INT4 数据类型详解-首席AI分享圈

O que é quantificação de modelo: explicação dos tipos de dados FP32, FP16, INT8 e INT4

Introdução No vasto céu estrelado da tecnologia de IA, os modelos de aprendizagem profunda impulsionam a inovação e o desenvolvimento em muitos campos com seu excelente desempenho. No entanto, a expansão contínua do tamanho do modelo é como uma faca de dois gumes, que provoca um aumento drástico na demanda aritmética e na pressão de armazenamento, ao mesmo tempo em que melhora o desempenho. Especialmente em aplicativos com restrição de recursos ...

系统掌握提示词工程——从基础到进阶(阅读时间2小时起)-首席AI分享圈

Domínio sistemático da engenharia de palavras-chave - do básico ao avançado (tempo de leitura de 2 horas)

Introdução O objetivo deste documento é ajudar os leitores a entender e apreender rapidamente os principais conceitos e aplicações da Prompt Engineering por meio de uma série de exemplos de prompts (em parte). Esses exemplos são todos derivados de um artigo acadêmico sobre uma revisão sistemática das técnicas de engenharia imediata ("The Prompt Report: A Systematic Survey of Pr...

LLM OCR 的局限性:光鲜外表下的文档解析难题-首席AI分享圈

Limitações do LLM OCR: Desafios de análise de documentos sob o glamour

Para qualquer aplicativo que exija sistemas RAG (Retrieval Augmented Generation), transformar documentos PDF enormes em blocos de texto legíveis por máquina (também conhecido como "PDF chunking") é uma grande dor de cabeça. Existem soluções de código aberto e produtos comerciais no mercado, mas, para ser honesto, não há nenhuma solução que possa realmente...

DeepSeek R1 越狱:尝试突破 DeepSeek 的审查机制-首席AI分享圈

DeepSeek R1 Jailbreak: uma tentativa de burlar os censores do DeepSeek

Os jailbreaks oficiais do DeepSeek R1 são ótimos ambientes experimentais para acionar basicamente todos os tipos de mecanismos de censura, e você pode aprender muitas técnicas de defesa. Portanto, este é um artigo de aprendizado sobre Mecanismos de censura de modelo grande, que o levará a exemplos de jailbreaks de modelo grande ao longo dos anos. Os mecanismos de censura de modelos grandes geralmente são usados...

OpenAI o3-mini 系统说明书(中文)-首席AI分享圈

Manual do sistema OpenAI o3-mini (chinês)

Original: https://cdn.openai.com/o3-mini-system-card.pdf 1 Introdução A família de modelos OpenAI o é treinada usando o aprendizado por reforço em larga escala para raciocinar usando cadeias de pensamento. Esses recursos avançados de raciocínio oferecem novas maneiras de melhorar a segurança e a robustez de nossos modelos. Em particular, ...

智能代理检索增强生成:Agentic RAG 技术综述-首席AI分享圈

Intelligent Agentic Retrieval Enhanced Generation: uma visão geral da tecnologia Agentic RAG

Resumo Os modelos de linguagem em grande escala (LLMs), como o GPT-4 da OpenAI, o PaLM do Google e o LLaMA da Meta, transformaram drasticamente a inteligência artificial (IA) ao permitir a geração de textos semelhantes aos humanos e a compreensão da linguagem natural. No entanto, sua dependência de dados de treinamento estáticos limita sua capacidade de responder a consultas dinâmicas e em tempo real...

LangGraph:基于有向无环图拓扑的AI Agent构建与执行框架-首席AI分享圈

LangGraph: uma estrutura para construção e execução de agentes de IA com base na topologia de gráficos acíclicos direcionados

A Inteligência Artificial (IA) é um campo em rápido crescimento. Os modelos de linguagem evoluíram para permitir que os agentes de IA executem tarefas complexas e tomem decisões complexas. No entanto, à medida que as habilidades desses agentes continuam a crescer, a infraestrutura para apoiá-los tem dificuldades para acompanhar esse crescimento. LangGraph, uma biblioteca revolucionária projetada para revolucionar...

揭示 AI 过滤器中的安全漏洞:使用字符代码绕过限制的深入研究-首席AI分享圈

Descobrindo falhas de segurança em filtros de IA: um estudo aprofundado do uso de código de caracteres para contornar restrições

Introdução Como muitas outras pessoas, nos últimos dias meus tweets de notícias foram preenchidos com notícias, elogios, reclamações e especulações sobre o modelo de linguagem grande DeepSeek-R1, fabricado na China, que foi lançado na semana passada. O modelo em si está sendo confrontado com alguns dos melhores modelos de inferência da OpenAI, Meta e outros...

pt_BRPortuguês do Brasil