AIパーソナル・ラーニング
と実践的なガイダンス
讯飞绘镜

AI知識 3ページ

解惑o1、DeepSeek-R1之类推理模型到底有没有在思考?-首席AI分享圈

混乱を解決する o1、DeepSeek-R1のような推論モデルは考えているのか、考えていないのか?

興味深い論文「Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs」を見つけた。トピックは、o1-like推論モデル、思考経路の頻繁な切り替え、「underthinking」と呼ばれる思考焦点の欠如を分析することである。o1様推論モデルの思考経路の頻繁な切り替えと、「アンダーシンキング」と呼ばれる思考焦点の欠如を分析し、同時にそれを緩和するための解決策を与えることをテーマとしている。

模型量化是什么:FP32, FP16, INT8, INT4 数据类型详解-首席AI分享圈

モデル量子化とは:FP32、FP16、INT8、INT4データ型の説明

はじめに AI技術の広大な星空の中で、ディープラーニングモデルはその優れた性能で多くの分野の革新と発展を牽引している。しかし、モデルサイズの継続的な拡大は諸刃の剣のようなものであり、性能を向上させる一方で、演算需要の劇的な増大とストレージの圧迫をもたらす。特にリソースに制約のあるアプリケーションでは ...

Think&Cite:使用树搜索技术提升文本引用准确性-首席AI分享圈

Think&Cite: ツリー検索技術によるテキスト引用の精度向上

概要 ラージ・ランゲージ・モデル(LLM)は、その優れた性能にもかかわらず、幻覚を見たり、事実と異なる情報を生成したりしがちである。この課題は、LLMに裏付けとなる証拠を含むコンテンツを生成するよう促す、属性テキスト生成の取り組みを動機づけてきた。本稿では、Think&Citeと呼ばれる新しいアプローチを紹介する。

系统掌握提示词工程——从基础到进阶(阅读时间2小时起)-首席AI分享圈

キュー・ワード・エンジニアリングの体系的習得-基礎から応用まで(読書時間2時間から)

はじめに 本書の目的は、一連のプロンプトの例(一部)を通して、プロンプト・エンジニアリングの中核となる概念と応用を読者が素早く理解し、把握できるようにすることである。これらの例はすべて、プロンプト・エンジニアリング技術の体系的レビューに関する学術論文("The Prompt Report: A Systematic Survey of Pr...

LLM OCR 的局限性:光鲜外表下的文档解析难题-首席AI分享圈

LLM OCRの限界:華やかさの下にある文書解析の課題

RAG(Retrieval Augmented Generation)システムを必要とするアプリケーションにとって、膨大なPDF文書を機械可読なテキストブロックにすること(「PDFチャンキング」とも呼ばれる)は大きな頭痛の種だ。 市場にはオープンソースのソリューションと商用製品の両方がありますが、正直なところ、本当にできるソリューションはありません...

DeepSeek R1 越狱:尝试突破 DeepSeek 的审查机制-首席AI分享圈

DeepSeek R1の脱獄:DeepSeekの検閲を突破する試み

DeepSeek R1公式ジェイルブレイクは、基本的にあらゆるタイプの検閲メカニズムをトリガーするための素晴らしい実験環境であり、あなたは多くの防御テクニックを学ぶことができるので、これは長年にわたって大規模なモデルのジェイルブレイクの例を紹介する大規模なモデルの検閲メカニズムに関する学習記事です。 大規模なモデルの検閲メカニズムは、通常、使用されている...

OpenAI o3-mini 系统说明书(中文)-首席AI分享圈

OpenAI o3-miniシステムマニュアル(中国語)

Original: https://cdn.openai.com/o3-mini-system-card.pdf 1 はじめに OpenAI oのモデルファミリーは、大規模な強化学習を使って学習され、思考の連鎖を使って推論する。これらの高度な推論機能は、我々のモデルの安全性と頑健性を向上させる新しい方法を提供する。特に、 ...

智能代理检索增强生成:Agentic RAG 技术综述-首席AI分享圈

知的エージェントによる検索機能強化世代:エージェントRAG技術の概要

概要 OpenAIのGPT-4、GoogleのPaLM、MetaのLLaMAなどの大規模言語モデル(LLM)は、人間のようなテキスト生成と自然言語理解を可能にすることで、人工知能(AI)を劇的に変化させてきた。しかし、静的な学習データに依存しているため、動的でリアルタイムのクエリへの対応には限界がある。

LangGraph:基于有向无环图拓扑的AI Agent构建与执行框架-首席AI分享圈

LangGraph: 有向非循環グラフトポロジーに基づくAIエージェント構築・実行フレームワーク

人工知能(AI)は急速に成長している分野である。言語モデルは、AIエージェントが複雑なタスクを実行し、複雑な意思決定を行えるように進化してきた。しかし、これらのエージェントのスキルが成長し続けるにつれて、それをサポートするインフラは追いつくのに苦労しています。 LangGraphは、AIエージェントに革命を起こすために設計された画期的なライブラリです...

一文说清楚 知识蒸馏 (Distillation):让“小模型”也能拥有“大智慧”-首席AI分享圈

分かりやすい記事 知識の蒸留(ディスティレーション):「小さなモデル」にも「大きな知恵」を持たせよう。

知識蒸留は、事前に訓練された大きなモデル(すなわち「教師モデル」)から、より小さな「生徒モデル」へと学習を移行させることを目的とした機械学習技術である。蒸留技術は、知的対話、コンテンツ作成、その他の分野での軽量な生成モデルの開発に役立つ。 最近、ディスティレーション...

大模型参数量如何计算?7B、13B、65B 究竟代表什么?-首席AI分享圈

また、7B、13B、65Bは何を表しているのでしょうか?

近年、大規模モデルの学習や推論に携わる多くの人々が、モデルのパラメータ数とモデルサイズの関係について議論している。例えば、有名なalpacaシリーズのLLaMAラージモデルには、LLaMA-7B、LLaMA-13B、LLaMA-33B、LLaMA-65Bというパラメータサイズの異なる4つのバージョンがある。 ここでは「...

CLOB:仅使用提示词让大语言模型持续学习一系列任务-首席AI分享圈

CLOB: キューワードのみを用いた大規模言語モデルによる一連のタスクの連続学習

元記事:https://arxiv.org/pdf/2412.15479 解釈:この記事自体はあまり革新的ではなく、応用も利かない。しかし、ずっとずっと昔に読んだ非常に有益な3つの記事を思い起こさせる。 前の3つの記事と合わせてこの記事を読むことで、より多くのインスピレーションが得られることを期待したい。お薦めの一冊:...

向量数据库深度对比:Weaviate、Milvus 与 Qdrant-首席AI分享圈

ベクトルデータベースの深さ比較:Weaviate、Milvus、Qdrant

人工知能や機械学習の分野では、特にRAG(Retrieval Augmented Generation)システムやセマンティック検索などのアプリケーションを構築する際、膨大な量の非構造化データを効率的に処理・検索することが極めて重要になる。ベクターデータベースは、この課題に対処するための中核技術として登場した。ベクターデータベースは、高次元データを格納するためだけのものではない。

解锁小红书营销密码:海外用户运营增长指南 (附PDF下载)-首席AI分享圈

リトルレッドブック・マーケティングの暗号を解く:海外ユーザー事業拡大ガイド(PDFダウンロード付)

中国だけでなくアジアでも話題のソーシャルEコマースプラットフォーム「小紅秀」は、単なるショッピングアプリの域を超え、若者のライフスタイルの風見鶏となり、ブランドマーケティングの新たなポジションを確立して久しい。中国市場に参入したい、あるいは若い消費者にリーチしたいと考える海外のブランドや個人にとって、小紅樹を使いこなすことは...

从 Cline 开始了解 AI Coding 工作原理-首席AI分享圈

クラインからAIコーディングの仕組みを学ぶ

思いがけず、AIはプログラミング分野に半端ない変革の空を起こしている。v0、bolt.newから、Agantを組み合わせた様々なプログラミングツールCursorやWindsurfまで、AIコーディングはアイデアMVPの巨大な可能性を秘めている。伝統的なAIアシスト・コーディングから、今日の直接的なプロジェクト生成の背後にあるものまで、結局は...。

ja日本語