AIパーソナル・ラーニング
と実践的なガイダンス
サイバーナイフ用ドローイングミラー

AI知識 3ページ

Deep Research 技术盘点!比RAG更高级的LLM应用范式-首席AI分享圈

ディープリサーチ技術目録!RAGより進んだLLMアプリケーションのパラダイム

OpenAIのディープリサーチツールが突如として登場した後、主要なベンダーはこぞって独自のディープリサーチツールを発表した。いわゆるディープリサーチは通常の検索と比較され、単純なRAG検索では一般的に1ラウンドの検索しか生成されない。しかし、ディープリサーチは、人間のように行動することができる。

RIG(检索交错生成):边查边写的检索策略,适合查询实时数据-首席AI分享圈

RIG(Retrieval Interleaved Generation):検索しながら書き込む検索戦略で、リアルタイムデータのクエリに適している。

テクノロジー・コア:検索インターリーブ生成(RIG) RIGとは RIGは、大規模な言語モデルによる統計データの処理における幻覚の問題に対処するために設計された革新的な生成手法である。従来のモデルでは、不正確な数値や事実が空中から生成される可能性がありましたが、RIGでは...

精通 RAG 文档分块策略:构建高效检索系统的分块策略指南-首席AI分享圈

RAGドキュメント・チャンキングを使いこなす:効率的な検索システム構築のためのチャンキング戦略ガイド

RAGアプリケーションで期待する結果が得られない場合は、チャンキング戦略を見直す時期かもしれません。チャンキングを改善すれば、より正確な検索が可能になり、最終的には質の高い回答が得られます。 しかし、チャンキングは万能の手法ではなく、単一のアプローチが絶対的に最適ということはありません。チャンキングの方法をカスタマイズする必要があります。

エージェンティック・チャンキング:AIエージェント駆動型意味論的テキストチャンキング

はじめに テキストチャンキングは、大規模言語モデル(Large Language Models: LLM)の応用領域、特に検索拡張生成(Retrieval Augmented Generation: RAG)システムにおいて重要な役割を果たす。 テキストチャンキングの質は文脈情報の妥当性に直結し、LLMが生成する解答の精度と完全性に影響を与える。

ZEP-Graphiti:インテリジェンスにおける記憶のための時間的知識グラフ・アーキテクチャ

Quick Reads AIメモリの課題とZepの革新 AIエージェント(AI Agents)は、複雑なタスクにおいてメモリのボトルネックに直面している。従来の大規模言語モデル(LLM)ベースのAIエージェントは、長期的な対話履歴と動的データを効果的に統合することが困難なコンテキストウィンドウに制約され、パフォーマンスが制限され、幻覚を見やすくなっています。Zepは、...

盘点与 Ollama 类似的 LLM 框架:本地部署大模型的多元选择-首席AI分享圈

Ollamaに似たLLMフレームワークの棚卸し:大規模モデルをローカルに展開するための複数の選択肢

Ollamaフレームワークの登場は、人工知能と大規模言語モデル(LLM)の分野で多くの注目を集めている。このオープンソース・フレームワークは、大規模言語モデルのローカルでの展開と運用を簡素化し、より多くの開発者がLLMの魅力を簡単に体験できるようにすることに焦点を当てている。しかし、市場を見ると、Ollamaだけではない...。

解惑o1、DeepSeek-R1之类推理模型到底有没有在思考?-首席AI分享圈

混乱を解決する o1、DeepSeek-R1のような推論モデルは考えているのか、考えていないのか?

興味深い論文「Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs」を見つけた。トピックは、o1-like推論モデル、思考経路の頻繁な切り替え、「underthinking」と呼ばれる思考焦点の欠如を分析することである。o1様推論モデルの思考経路の頻繁な切り替えと、「アンダーシンキング」と呼ばれる思考焦点の欠如を分析し、同時にそれを緩和するための解決策を与えることをテーマとしている。

模型量化是什么:FP32, FP16, INT8, INT4 数据类型详解-首席AI分享圈

モデル量子化とは:FP32、FP16、INT8、INT4データ型の説明

はじめに AI技術の広大な星空の中で、ディープラーニングモデルはその優れた性能で多くの分野の革新と発展を牽引している。しかし、モデルサイズの継続的な拡大は諸刃の剣のようなものであり、性能を向上させる一方で、演算需要の劇的な増大とストレージの圧迫をもたらす。特にリソースに制約のあるアプリケーションでは ...

Think&Cite:使用树搜索技术提升文本引用准确性-首席AI分享圈

Think&Cite: ツリー検索技術によるテキスト引用の精度向上

概要 ラージ・ランゲージ・モデル(LLM)は、その優れた性能にもかかわらず、幻覚を見たり、事実と異なる情報を生成したりしがちである。この課題は、LLMに裏付けとなる証拠を含むコンテンツを生成するよう促す、属性テキスト生成の取り組みを動機づけてきた。本稿では、Think&Citeと呼ばれる新しいアプローチを紹介する。

系统掌握提示词工程——从基础到进阶(阅读时间2小时起)-首席AI分享圈

キュー・ワード・エンジニアリングの体系的習得-基礎から応用まで(読書時間2時間から)

はじめに 本書の目的は、一連のプロンプトの例(一部)を通して、プロンプト・エンジニアリングの中核となる概念と応用を読者が素早く理解し、把握できるようにすることである。これらの例はすべて、プロンプト・エンジニアリング技術の体系的レビューに関する学術論文("The Prompt Report: A Systematic Survey of Pr...

LLM OCR 的局限性:光鲜外表下的文档解析难题-首席AI分享圈

LLM OCRの限界:華やかさの下にある文書解析の課題

RAG(Retrieval Augmented Generation)システムを必要とするアプリケーションにとって、膨大なPDF文書を機械可読なテキストブロックにすること(「PDFチャンキング」とも呼ばれる)は大きな頭痛の種だ。 市場にはオープンソースのソリューションと商用製品の両方がありますが、正直なところ、本当にできるソリューションはありません...

DeepSeek R1 越狱:尝试突破 DeepSeek 的审查机制-首席AI分享圈

DeepSeek R1の脱獄:DeepSeekの検閲を突破する試み

DeepSeek R1公式ジェイルブレイクは、基本的にあらゆるタイプの検閲メカニズムをトリガーするための素晴らしい実験環境であり、あなたは多くの防御テクニックを学ぶことができるので、これは長年にわたって大規模なモデルのジェイルブレイクの例を紹介する大規模なモデルの検閲メカニズムに関する学習記事です。 大規模なモデルの検閲メカニズムは、通常、使用されている...

OpenAI o3-mini 系统说明书(中文)-首席AI分享圈

OpenAI o3-miniシステムマニュアル(中国語)

Original: https://cdn.openai.com/o3-mini-system-card.pdf 1 はじめに OpenAI oのモデルファミリーは、大規模な強化学習を使って学習され、思考の連鎖を使って推論する。これらの高度な推論機能は、我々のモデルの安全性と頑健性を向上させる新しい方法を提供する。特に、 ...

智能代理检索增强生成:Agentic RAG 技术综述-首席AI分享圈

知的エージェントによる検索機能強化世代:エージェントRAG技術の概要

概要 OpenAIのGPT-4、GoogleのPaLM、MetaのLLaMAなどの大規模言語モデル(LLM)は、人間のようなテキスト生成と自然言語理解を可能にすることで、人工知能(AI)を劇的に変化させてきた。しかし、静的な学習データに依存しているため、動的でリアルタイムのクエリへの対応には限界がある。

LangGraph:基于有向无环图拓扑的AI Agent构建与执行框架-首席AI分享圈

LangGraph: 有向非循環グラフトポロジーに基づくAIエージェント構築・実行フレームワーク

人工知能(AI)は急速に成長している分野である。言語モデルは、AIエージェントが複雑なタスクを実行し、複雑な意思決定を行えるように進化してきた。しかし、これらのエージェントのスキルが成長し続けるにつれて、それをサポートするインフラは追いつくのに苦労しています。 LangGraphは、AIエージェントに革命を起こすために設計された画期的なライブラリです...

ja日本語