AIパーソナル・ラーニング
と実践的なガイダンス
讯飞绘镜

AI知識 10ページ

什么是 Transformer?-首席AI分享圈

トランスフォーマーとは?

  Transformerは、2017年にVaswaniらによって提案された、自然言語処理(NLP)のためのディープラーニングモデルアーキテクチャである。 主に機械翻訳やテキスト生成など、シーケンス間のタスク処理に用いられる。 簡単に説明すると、テキスト生成のためのオリジナルのTransformerモデル...

COT及相关高级提示变种提示词讲解-首席AI分享圈

COTと関連する高度なキュー・バリエーション キュー・ワードの説明

免責事項:基本的なヒンティング技術(例:ゼロ/少数のサンプル例や命令形ヒント)は非常に効率的ですが、複雑なパズル(例:数学/プログラミングや多段階の論理的推論を必要とする問題)に直面した場合、より洗練されたヒントがより効果的な場合があります。大規模言語モデル(LLM)はこのような問題を扱うので...

ChatGPTプロンプト・レベル10のヒント:初心者からエキスパートへ

私は最良の結果を見つけるために、様々なキューを研究し、テストすることに多くの時間を費やしてきました。このビデオでは、これらの経験を10段階のプロンプター・ワード・デザイン・テクニックにまとめました。基本的なことから始めて、最近のシンガポール・プロンプター・デザイン・コンペティションで優勝した専門的なテクニックまで紹介します。そして...

エージェント用語集

論文に水を差すには?Agent関連の命題を選び、Reactに以下のインスピレーションを加えて実験し、その結果をもとに論旨を逆算すると、概ね何らかの結果が得られる。 情報知覚英語中国語中国語解説知覚とは、感覚を通して環境に関する情報を獲得するプロセスを指し、それを包括...

用于客户服务问答的知识图检索增强生成-首席AI分享圈

接客クイズのための知識グラフ検索機能強化の生成

論文アドレス:https://arxiv.org/abs/2404.17723 知識グラフは、的を絞った方法でしか実体関係を抽出できない。そのような安定的に抽出可能な実体関係は、構造化データに近いものとして理解できる。 図1は、知識グラフ(KG)と検索拡張生成(RAG)の組み合わせを示す...

提示工程在大语言模型中应用的必要性-首席AI分享圈

ビッグ・ランゲージ・モデリングにおけるキュー・エンジニアリングの必要性

以下は、ヒント・エンジニアリングの基本的な考え方と、それがラージ・ランゲージ・モデル(LLM)のパフォーマンスをどのように向上させるかについての紹介である。 LLMのインターフェース:ラージ・ランゲージ・モデルがこれほど注目されている主な理由のひとつは、そのテキスト・トゥ・テキスト・インターフェースが最小限の操作体験を可能にすることだ。これまで、ディープラーニングを使ったタスクの解決には、一般的に...

MemGPT项目:在对话中保持长记忆-首席AI分享圈

プロジェクトMemGPT:長い記憶を会話に残す

オープンソースアドレス:https://github.com/cpacker/MemGPT 論文アドレス:https://arxiv.org/abs/2310.08560 公式ウェブサイト:https://memgpt.ai/ MemGPTがサポートするもの: 1. 長期記憶や状態の管理 2.外部データソース 3.

初心者向けSEOガイド

このビギナーズガイドは、SEOの基本を理解し、ランキングを向上させるために必要なすべてを含む7つの章から構成されています。 また、当社のSEOブログやYouTubeチャンネルにある有用なリソースへのリンクも掲載していますので、SEOに精通したあなた自身の道を築くことができます。 1/検索エンジンの仕組み...

多样本(示例)越狱攻击-首席AI分享圈

マルチブック(例)脱獄攻撃

研究者は、大規模言語モデル(LLM)の開発者が設定したセキュリティ・フェンスを回避するために使用できる手法である「脱獄攻撃」テクニックを調査した。マルチサンプル脱獄攻撃」として知られるこのテクニックは、Anthropic社独自のモデルだけでなく、他のAI企業が製造したモデルでも機能する。研究者らは、事前に...

ReAct: 大语言模型中推理和行动协同工作-首席AI分享圈

ReAct:大規模言語モデルにおける推論と行動

元記事:https://arxiv.org/pdf/2210.03629.pdf ReActがどのように機能し、適用されるのか、読んでも理解できない?ReAct実装ロジックの実際」で実例を交えた解説をご覧ください。 概要 大規模言語モデル(LLM)は、言語理解や対話的な意思決定のタスクに有用であるが、言語理解や対話的な意思決定のタスクに...

RAG:检索增强-首席AI分享圈

RAG:検索補強

RAG(Retrieve Augmented Generation)は、権威ある知識ベース情報に基づいて大規模言語モデル(LLM)の出力を最適化する技術である。このテクニックは、LLMの機能を拡張し、特定のドメインや組織の内部知識ベースを参照することで、...

Proposition Retrieval:命题检索-首席AI分享圈

プロポジション検索。

原文:"Dense X Retrieval: What Retrieval Granularity Should We Use?" 注:この方法は、OPENAIシリーズ、Claudeシリーズ、Mixtral、Yi、qwenなど、少数のモデルに適している。 概要 オープンドメインの自然言語処理(NLP)タスクでは、...

ウー・エンダが提案する4つのタイプのインテリゲンチャ:人工知能の新しいトレンドをリードするAIインテリゲンチャのワークフロー

原文:Generally Capable Agents in Open-Ended World [S62816] 1.反省的知性(Reflective Intelligence) 生成したコードやコンテンツをチェックし、修正し、反復的に最適化することができる 自己反省と修正を通じて、より質の高い結果を生成することができる ロバストで効果的な手法である...

BoT:强化思考:用大型语言模型解决试错问题-首席AI分享圈

BoT:強化された思考:大規模言語モデルによる試行錯誤の問題解決

要旨 広範囲の問題に対する大規模言語モデル(LLM)の推論性能は、連鎖思考プロンプトに大きく依存しており、プロンプトの例として多くの連鎖思考デモを提供する必要がある。思考ツリーなどの最近の研究では、複雑な問題解決における推論の探索と自己評価が指摘されている...

インテント:ゼップは、大きなモデルに顧客のインテントを理解させる方法を説明している。

自然言語処理(NLP)において、意図とはユーザーが何らかの目的、欲求、願望を表現することを指す。ユーザーが送信したメッセージを分析し、その背後にある意図を特定することで、適切なコンテンツを返信することができます。例えば、「食べ物を注文する」、「天気を調べる」、「パリに行きたい」などはすべて有効な意図です。 チャットボットのために...

从神经网络到 Hugging Face——神经网络和深度学习简史-首席AI分享圈

ニューラルネットワークからハグする顔まで - ニューラルネットワークとディープラーニングの簡単な歴史

TL;DR この8200字を超える記事は、全部読むのに15分ほどかかる。この記事では、知覚機械からディープラーニングの最新のビッグモデル応用であるChatGPTの歴史を簡単にレビューする。 元記事: https://hutusi.com/articles/the-history-of-neural-networks 人生に恐れるものは何もない。

ja日本語