Aprendizagem pessoal com IA
e orientação prática
豆包Marscode1

Conhecimento de IA Página 3

解惑o1、DeepSeek-R1之类推理模型到底有没有在思考?-首席AI分享圈

Resolvendo a confusão o1, os modelos de inferência como o DeepSeek-R1 estão pensando ou não?

Encontrei um artigo interessante, intitulado "Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs" (Os pensamentos estão por toda parte: sobre o pensamento insuficiente de LLMs do tipo o1), cujo tema é analisar o modelo de raciocínio do tipo o1, a troca frequente de caminhos de pensamento e a falta de foco no pensamento, denominada "pensamento insuficiente". O tópico é analisar a troca frequente de caminhos de raciocínio do modelo de raciocínio do tipo o1 e a falta de foco no pensamento, conhecida como "underthinking", e, ao mesmo tempo, apresentar uma solução para aliviar ...

模型量化是什么:FP32, FP16, INT8, INT4 数据类型详解-首席AI分享圈

O que é quantificação de modelo: explicação dos tipos de dados FP32, FP16, INT8 e INT4

Introdução No vasto céu estrelado da tecnologia de IA, os modelos de aprendizagem profunda impulsionam a inovação e o desenvolvimento em muitos campos com seu excelente desempenho. No entanto, a expansão contínua do tamanho do modelo é como uma faca de dois gumes, que provoca um aumento drástico na demanda aritmética e na pressão de armazenamento, ao mesmo tempo em que melhora o desempenho. Especialmente em aplicativos com restrição de recursos ...

系统掌握提示词工程——从基础到进阶(阅读时间2小时起)-首席AI分享圈

Domínio sistemático da engenharia de palavras-chave - do básico ao avançado (tempo de leitura de 2 horas)

Introdução O objetivo deste documento é ajudar os leitores a entender e apreender rapidamente os principais conceitos e aplicações da Prompt Engineering por meio de uma série de exemplos de prompts (em parte). Esses exemplos são todos derivados de um artigo acadêmico sobre uma revisão sistemática das técnicas de engenharia imediata ("The Prompt Report: A Systematic Survey of Pr...

LLM OCR 的局限性:光鲜外表下的文档解析难题-首席AI分享圈

Limitações do LLM OCR: Desafios de análise de documentos sob o glamour

Para qualquer aplicativo que exija sistemas RAG (Retrieval Augmented Generation), transformar documentos PDF enormes em blocos de texto legíveis por máquina (também conhecido como "PDF chunking") é uma grande dor de cabeça. Existem soluções de código aberto e produtos comerciais no mercado, mas, para ser honesto, não há nenhuma solução que possa realmente...

DeepSeek R1 越狱:尝试突破 DeepSeek 的审查机制-首席AI分享圈

DeepSeek R1 Jailbreak: uma tentativa de burlar os censores do DeepSeek

Os jailbreaks oficiais do DeepSeek R1 são ótimos ambientes experimentais para acionar basicamente todos os tipos de mecanismos de censura, e você pode aprender muitas técnicas de defesa. Portanto, este é um artigo de aprendizado sobre Mecanismos de censura de modelo grande, que o levará a exemplos de jailbreaks de modelo grande ao longo dos anos. Os mecanismos de censura de modelos grandes geralmente são usados...

OpenAI o3-mini 系统说明书(中文)-首席AI分享圈

Manual do sistema OpenAI o3-mini (chinês)

Original: https://cdn.openai.com/o3-mini-system-card.pdf 1 Introdução A família de modelos OpenAI o é treinada usando o aprendizado por reforço em larga escala para raciocinar usando cadeias de pensamento. Esses recursos avançados de raciocínio oferecem novas maneiras de melhorar a segurança e a robustez de nossos modelos. Em particular, ...

智能代理检索增强生成:Agentic RAG 技术综述-首席AI分享圈

Intelligent Agentic Retrieval Enhanced Generation: uma visão geral da tecnologia Agentic RAG

Resumo Os modelos de linguagem em grande escala (LLMs), como o GPT-4 da OpenAI, o PaLM do Google e o LLaMA da Meta, transformaram drasticamente a inteligência artificial (IA) ao permitir a geração de textos semelhantes aos humanos e a compreensão da linguagem natural. No entanto, sua dependência de dados de treinamento estáticos limita sua capacidade de responder a consultas dinâmicas e em tempo real...

LangGraph:基于有向无环图拓扑的AI Agent构建与执行框架-首席AI分享圈

LangGraph: uma estrutura para construção e execução de agentes de IA com base na topologia de gráficos acíclicos direcionados

A Inteligência Artificial (IA) é um campo em rápido crescimento. Os modelos de linguagem evoluíram para permitir que os agentes de IA executem tarefas complexas e tomem decisões complexas. No entanto, à medida que as habilidades desses agentes continuam a crescer, a infraestrutura para apoiá-los tem dificuldades para acompanhar esse crescimento. LangGraph, uma biblioteca revolucionária projetada para revolucionar...

揭示 AI 过滤器中的安全漏洞:使用字符代码绕过限制的深入研究-首席AI分享圈

Descobrindo falhas de segurança em filtros de IA: um estudo aprofundado do uso de código de caracteres para contornar restrições

Introdução Como muitas outras pessoas, nos últimos dias meus tweets de notícias foram preenchidos com notícias, elogios, reclamações e especulações sobre o modelo de linguagem grande DeepSeek-R1, fabricado na China, que foi lançado na semana passada. O modelo em si está sendo confrontado com alguns dos melhores modelos de inferência da OpenAI, Meta e outros...

CoRAG:利用MCTS(蒙特卡洛树)动态链式 RAG 模型-首席AI分享圈

CoRAG: modelagem dinâmica de RAG encadeada usando MCTS (Monte Carlo Trees)

  Resumo das principais contribuições do CORAG O CORAG (Cost-Constrained Retrieval Optimization for Retrieval-Augmented Generation) é um sistema inovador de geração aumentada de recuperação (RAG) projetado para enfrentar os principais desafios das abordagens RAG existentes. O seguinte CORAG ...

一文说清楚 知识蒸馏 (Distillation):让“小模型”也能拥有“大智慧”-首席AI分享圈

Um artigo claro sobre Destilação de Conhecimento (Destilação): permitir que o "modelo pequeno" também possa ter "grande sabedoria".

A destilação de conhecimento é uma técnica de aprendizado de máquina que visa transferir o aprendizado de um modelo grande pré-treinado (ou seja, um "modelo de professor") para um "modelo de aluno" menor. As técnicas de destilação podem nos ajudar a desenvolver modelos generativos mais leves para diálogo inteligente, criação de conteúdo e outras áreas. Recentemente, a destilação...

大模型参数量如何计算?7B、13B、65B 究竟代表什么?-首席AI分享圈

Como calcular o número de parâmetros de um modelo grande e o que significam 7B, 13B e 65B?

Recentemente, muitas pessoas envolvidas no treinamento e na inferência de modelos grandes têm discutido a relação entre o número de parâmetros do modelo e o tamanho do modelo. Por exemplo, a famosa série alpaca de modelos grandes LLaMA contém quatro versões com diferentes tamanhos de parâmetros: LLaMA-7B, LLaMA-13B, LLaMA-33B e LLaMA-65B. Aqui "...

向量数据库深度对比:Weaviate、Milvus 与 Qdrant-首席AI分享圈

Comparação da profundidade do banco de dados vetorial: Weaviate, Milvus e Qdrant

No campo da inteligência artificial e do aprendizado de máquina, especialmente na criação de aplicativos como os sistemas RAG (Retrieval Augmented Generation) e a pesquisa semântica, o processamento e a recuperação eficientes de grandes quantidades de dados não estruturados tornam-se cruciais. Os bancos de dados vetoriais surgiram como uma tecnologia essencial para enfrentar esse desafio. Eles não servem apenas para armazenar dados de alta dimensão ...

解锁小红书营销密码:海外用户运营增长指南 (附PDF下载)-首席AI分享圈

Unlocking the Little Red Book Marketing Code: A Guide to Growing Overseas User Operations (com download do PDF)

A Xiaohongshu, uma plataforma social de comércio eletrônico muito popular na China e até mesmo na Ásia, foi muito além de um simples aplicativo de compras e se tornou um cata-vento para o estilo de vida dos jovens e uma nova posição para o marketing de marcas. Para marcas e indivíduos estrangeiros que desejam entrar no mercado chinês ou atingir consumidores jovens, dominar o Xiaohongshu...

从 Cline 开始了解 AI Coding 工作原理-首席AI分享圈

Saiba como funciona o AI Coding, começando com o Cline!

Inesperadamente, a IA desencadeou um céu de meia mudança no campo da programação. De v0, bolt.new a várias ferramentas de programação Cursor e Windsurf que combinam Agant, a codificação de IA tem o enorme potencial de ideia MVP. Desde a tradicional codificação assistida por IA até a atual geração direta de projetos, no final das contas é...

pt_BRPortuguês do Brasil