Encontrei um artigo interessante, intitulado "Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs" (Os pensamentos estão por toda parte: sobre o pensamento insuficiente de LLMs do tipo o1), cujo tema é analisar o modelo de raciocínio do tipo o1, a troca frequente de caminhos de pensamento e a falta de foco no pensamento, denominada "pensamento insuficiente". O tópico é analisar a troca frequente de caminhos de raciocínio do modelo de raciocínio do tipo o1 e a falta de foco no pensamento, conhecida como "underthinking", e, ao mesmo tempo, apresentar uma solução para aliviar ...
Introdução No vasto céu estrelado da tecnologia de IA, os modelos de aprendizagem profunda impulsionam a inovação e o desenvolvimento em muitos campos com seu excelente desempenho. No entanto, a expansão contínua do tamanho do modelo é como uma faca de dois gumes, que provoca um aumento drástico na demanda aritmética e na pressão de armazenamento, ao mesmo tempo em que melhora o desempenho. Especialmente em aplicativos com restrição de recursos ...
Habilite o modo de programação inteligente Builder, uso ilimitado do DeepSeek-R1 e DeepSeek-V3, experiência mais suave do que a versão internacional. Basta digitar os comandos chineses, sem conhecimento de programação, para escrever seus próprios aplicativos.
Resumo Apesar de seu excelente desempenho, os modelos de linguagem grande (LLMs) são propensos a alucinar e gerar informações factualmente imprecisas. Esse desafio tem motivado esforços na geração de texto de atributos, o que faz com que os LLMs gerem conteúdo que contenha evidências de apoio. Neste artigo, apresentamos uma nova abordagem chamada Think&Cite ...
Introdução O objetivo deste documento é ajudar os leitores a entender e apreender rapidamente os principais conceitos e aplicações da Prompt Engineering por meio de uma série de exemplos de prompts (em parte). Esses exemplos são todos derivados de um artigo acadêmico sobre uma revisão sistemática das técnicas de engenharia imediata ("The Prompt Report: A Systematic Survey of Pr...
Titans: Aprendendo a memorizar na hora da prova Texto original: https://arxiv.org/pdf/2501.00663v1 Arquitetura dos Titãs Implementação não oficial: https://github.com/lucidrains/titans- pytorch I. Histórico e motivação da pesquisa: Transformer of ...
Para qualquer aplicativo que exija sistemas RAG (Retrieval Augmented Generation), transformar documentos PDF enormes em blocos de texto legíveis por máquina (também conhecido como "PDF chunking") é uma grande dor de cabeça. Existem soluções de código aberto e produtos comerciais no mercado, mas, para ser honesto, não há nenhuma solução que possa realmente...
Os jailbreaks oficiais do DeepSeek R1 são ótimos ambientes experimentais para acionar basicamente todos os tipos de mecanismos de censura, e você pode aprender muitas técnicas de defesa. Portanto, este é um artigo de aprendizado sobre Mecanismos de censura de modelo grande, que o levará a exemplos de jailbreaks de modelo grande ao longo dos anos. Os mecanismos de censura de modelos grandes geralmente são usados...
Original: https://cdn.openai.com/o3-mini-system-card.pdf 1 Introdução A família de modelos OpenAI o é treinada usando o aprendizado por reforço em larga escala para raciocinar usando cadeias de pensamento. Esses recursos avançados de raciocínio oferecem novas maneiras de melhorar a segurança e a robustez de nossos modelos. Em particular, ...
Quick Reads Uma visão abrangente e aprofundada do passado e do presente da Lei de Escalonamento de Modelos de Linguagem Grandes (LLMs) e a direção futura da pesquisa em IA. Com uma lógica clara e exemplos ricos, o autor Cameron R. Wolfe leva o leitor dos conceitos básicos até a...
Resumo Os modelos de linguagem em grande escala (LLMs), como o GPT-4 da OpenAI, o PaLM do Google e o LLaMA da Meta, transformaram drasticamente a inteligência artificial (IA) ao permitir a geração de textos semelhantes aos humanos e a compreensão da linguagem natural. No entanto, sua dependência de dados de treinamento estáticos limita sua capacidade de responder a consultas dinâmicas e em tempo real...
A Inteligência Artificial (IA) é um campo em rápido crescimento. Os modelos de linguagem evoluíram para permitir que os agentes de IA executem tarefas complexas e tomem decisões complexas. No entanto, à medida que as habilidades desses agentes continuam a crescer, a infraestrutura para apoiá-los tem dificuldades para acompanhar esse crescimento. LangGraph, uma biblioteca revolucionária projetada para revolucionar...
Introdução Como muitas outras pessoas, nos últimos dias meus tweets de notícias foram preenchidos com notícias, elogios, reclamações e especulações sobre o modelo de linguagem grande DeepSeek-R1, fabricado na China, que foi lançado na semana passada. O modelo em si está sendo confrontado com alguns dos melhores modelos de inferência da OpenAI, Meta e outros...
Resumo das principais contribuições do CORAG O CORAG (Cost-Constrained Retrieval Optimization for Retrieval-Augmented Generation) é um sistema inovador de geração aumentada de recuperação (RAG) projetado para enfrentar os principais desafios das abordagens RAG existentes. O seguinte CORAG ...
A destilação de conhecimento é uma técnica de aprendizado de máquina que visa transferir o aprendizado de um modelo grande pré-treinado (ou seja, um "modelo de professor") para um "modelo de aluno" menor. As técnicas de destilação podem nos ajudar a desenvolver modelos generativos mais leves para diálogo inteligente, criação de conteúdo e outras áreas. Recentemente, a destilação...
Recentemente, muitas pessoas envolvidas no treinamento e na inferência de modelos grandes têm discutido a relação entre o número de parâmetros do modelo e o tamanho do modelo. Por exemplo, a famosa série alpaca de modelos grandes LLaMA contém quatro versões com diferentes tamanhos de parâmetros: LLaMA-7B, LLaMA-13B, LLaMA-33B e LLaMA-65B. Aqui "...
Artigo original: https://arxiv.org/pdf/2412.15479 INTERPRETAÇÃO: Este artigo em si não é muito inovador e tem pouca aplicação. No entanto, ele me faz lembrar de três artigos altamente informativos que li há muito, muito tempo. A leitura deste artigo em conjunto com os três artigos anteriores lhe trará mais inspiração. Leitura recomendada: o...
No campo da inteligência artificial e do aprendizado de máquina, especialmente na criação de aplicativos como os sistemas RAG (Retrieval Augmented Generation) e a pesquisa semântica, o processamento e a recuperação eficientes de grandes quantidades de dados não estruturados tornam-se cruciais. Os bancos de dados vetoriais surgiram como uma tecnologia essencial para enfrentar esse desafio. Eles não servem apenas para armazenar dados de alta dimensão ...
A Xiaohongshu, uma plataforma social de comércio eletrônico muito popular na China e até mesmo na Ásia, foi muito além de um simples aplicativo de compras e se tornou um cata-vento para o estilo de vida dos jovens e uma nova posição para o marketing de marcas. Para marcas e indivíduos estrangeiros que desejam entrar no mercado chinês ou atingir consumidores jovens, dominar o Xiaohongshu...
Inesperadamente, a IA desencadeou um céu de meia mudança no campo da programação. De v0, bolt.new a várias ferramentas de programação Cursor e Windsurf que combinam Agant, a codificação de IA tem o enorme potencial de ideia MVP. Desde a tradicional codificação assistida por IA até a atual geração direta de projetos, no final das contas é...
Não consegue encontrar ferramentas de IA? Tente aqui!
Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.