AIパーソナル・ラーニング
と実践的なガイダンス
サイバーナイフ用ドローイングミラー
全24記事

Tags: ローカル展開 オープンソース ビッグモデル ツール

Nexa:ローカルで動作する小型マルチモーダルAIソリューション - Chief AI Sharing Circle

Nexa:ローカルで動作する小型マルチモーダルAIソリューション

総合紹介 Nexa AIは、ローカルで動作するマルチモーダルAIソリューションに特化したプラットフォームです。自然言語処理(NLP)、コンピュータ・ビジョン、音声認識・生成(ASRとTTS)を含む幅広いAIモデルを提供し、そのすべてをクラウドに依存することなくデバイス上でローカルに実行することができる。

vLLM: 効率的なメモリ利用のためのLLM推論とサービスエンジン - Chief AI Sharing Circle

vLLM: 効率的なメモリ利用のためのLLM推論とサービスエンジン

包括的な紹介 vLLMは、大規模言語モデリング(LLM)のために設計された、高スループットでメモリ効率の良い推論およびサービスエンジンです。もともとはUC BerkeleyのSky Computing Labによって開発されましたが、現在では学術界と産業界によるコミュニティ・プロジェクトとなっています。

ラマ3.2推論WebGPU:ブラウザでラマ3.2を動かす

一般的な紹介 Transformers.jsはHugging Faceが提供するJavaScriptライブラリで、最先端の機械学習モデルをサーバーのサポートなしにブラウザ上で直接実行できるように設計されている。このライブラリはHugging FaceのPython用transformersライブラリと同等であり、様々なプリ...

Harbor:ローカルのLLM開発環境をデプロイし、ワンクリックでAIサービスを簡単に管理・実行するためのコンテナ化ツールセット - Chief AI Sharing Circle

Harbor: ローカルのLLM開発環境をワンクリックでデプロイし、AIサービスを簡単に管理・実行するためのコンテナ化されたツールセット。

包括的な紹介 Harborは、ローカルAI開発環境のデプロイと管理を簡素化することに焦点を当てた、画期的なコンテナ化LLMツールセットです。開発者は、LLMバックエンド、APIインターフェース、フロントエンドインターフェースなど、すべてのAIサービスを、クリーンなコマンドラインインターフェース(CLI)とコンパニオンアプリを通じて、ワンクリックで起動・管理することができます。

Xinference:簡単な分散AIモデルの展開と提供 - Chief AI Sharing Circle

Xinference: 簡単な分散AIモデルのデプロイとサービング

包括的な紹介 Xorbits Inference(略してXinference)は、言語モデル、音声認識モデル、マルチモーダルモデルの分散デプロイと配信に特化した、強力で汎用性の高いライブラリです。Xorbits Inferenceを使用すると、ユーザーは簡単に独自のモデルやビルトイン事前...

AI Dev Gallery:WindowsネイティブAIモデル開発ツールセット、Windowsアプリケーションへのエンド側モデル統合 - Chief AI Sharing Circle

AI Dev Gallery: WindowsネイティブAIモデル開発ツールセット、Windowsアプリケーションへのエンドサイドモデルの統合

包括的な紹介 AI Dev Galleryは、Windows開発者向けに設計されたマイクロソフトのAI開発ツールアプリケーションです(現在パブリックプレビュー中)。開発者がAI機能をWindowsアプリケーションに簡単に統合するための包括的なプラットフォームを提供する。このツールの最大の特徴は...

LightLLM:大規模言語モデルを推論・提供する効率的な軽量フレームワーク - Chief AI Sharing Circle

LightLLM:大規模言語モデルの推論と処理のための効率的な軽量フレームワーク

包括的な紹介 LightLLMはPythonベースのLarge Language Model(LLM)推論・サービスフレームワークで、軽量設計、拡張の容易さ、効率的なパフォーマンスで知られています。このフレームワークは、FasterTransformer、TGI、vLLM、FlashAttention ... などの有名なオープンソースの実装を活用しています。

Transformers.js:ローカルウェブで動作する約700のAIマクロモデル

一般的な紹介 Transformers.jsは、Hugging Faceによって開発されたJavaScriptライブラリであり、最先端の機械学習モデルをサーバーのサポートなしにブラウザ上で直接実行できるようにするものである。このライブラリはHugging FaceのPython用transformersライブラリと機能的に同等である。

GLMエッジ:Smart Spectrum、モバイル、自動車、PCプラットフォーム向けにエンドサイドビッグ言語モデルとマルチモーダル理解モデルをリリース-チーフAIシェアリングサークル

GLMエッジ:Smart Spectrumがモバイル、自動車、PCプラットフォーム向けにエンドサイドビッグ言語モデルとマルチモーダル理解モデルをリリース

包括的な紹介 GLM-Edgeは、清華大学(Smart Spectrum Light Language)のエンドサイドデバイス向けに設計された大規模言語モデルとマルチモーダル理解モデルのシリーズです。これらのモデルには、GLM-Edge-1.5B-Chat、GLM-Edge-4B-Chat、GLM-Edge-V-2B、GLM-Edge-V-5Bがあり、携帯電話、...

EXO:複数の推論エンジンと自動デバイス検出をサポートし、アイドル状態の家庭用デバイスを使用して分散AIクラスタを実行します。-チーフAIシェアリングサークル

EXO:アイドル状態の家庭用デバイスを使用して分散AIクラスタを実行し、複数の推論エンジンとデバイスの自動検出をサポートする。

一般的な紹介 Exoは、日常的なデバイス(iPhone、iPad、Android、Mac、Linuxなど)を使用して独自のAIクラスタを実行することを目的としたオープンソースプロジェクトです。動的なモデル分割とデバイスの自動検出により、Exoは複数のデバイスを単一の強力なGPUに統合することができ、LLaMA、Mis...などの複数のモデルをサポートしています。

LocalAI:オープンソースのローカルAI導入ソリューション、複数のモデルアーキテクチャをサポート、WebUIでモデルとAPIを統合管理 - Chief AI Sharing Circle

LocalAI: オープンソースのローカルAIデプロイメントソリューション、複数のモデルアーキテクチャのサポート、モデルとAPIのWebUI統合管理

一般的な紹介 LocalAIは、OpenAIやClaudeなどと互換性のあるAPIインターフェースを提供するように設計された、オープンソースのローカルAI代替ソフトウェアです。コンシューマーグレードのハードウェア上での実行をサポートし、GPUを必要とせず、テキスト、オーディオ、ビデオ、画像生成、スピーチクローンなどの幅広いタスクを実行することができます。

llamafile: 単一ファイルによるLLMの配布と実行、LLMデプロイの簡素化、LLMのクロスプラットフォーム対応-Chief AI Sharing Circle

llamafile: 単一ファイルを使ってLLMを配布・実行、LLMデプロイの簡素化、LLMのクロスプラットフォーム対応

一般的な紹介 llamafile は Mozilla Builders プロジェクトのツールで、Large Language Model (LLM) のデプロイと操作を簡単にするために設計されています。llama.cppとCosmopolitan Libcを組み合わせることで、llamafileは複雑なLLMのデプロイプロセスを単一の実行可能なファイルに縮小します。

Petals:大規模言語モデルの実行と微調整をGPUで分散共有、GPUリソースをBitTorrentネットワークのように共有 - Chief AI Sharing Circle

Petals:大規模言語モデルの実行と微調整をGPUで分散共有し、BitTorrentネットワークのようにGPUリソースを共有する。

一般的な紹介 Petalsは、BigScienceワークショップによって開発されたオープンソースプロジェクトで、分散コンピューティングアプローチによって大規模言語モデル(LLM)を実行します。ユーザーは、Llama 3.1、Mixtral、F...などのコンシューマーグレードのGPUやGoogle Colabを使って、自宅でLLMを実行し、微調整することができます。

Aphroditeエンジン:複数の数量化形式と分散推論をサポートする効率的なLLM推論エンジン。

包括的な紹介 アフロディーテエンジンはPygmalionAIの公式バックエンドエンジンで、PygmalionAIのサイトに推論エンドポイントを提供し、Hugging Face互換モデルの迅速な展開をサポートするように設計されています。このエンジンはvLLMのページド・アテンション・テクノロジーを活用し、効率的なK/V管理と連続バッチ処理を実現します。

llama.cpp:効率的な推論ツール、複数のハードウェアをサポート、LLM推論を簡単に実装 - Chief AI Sharing Circle

llama.cpp: 効率的な推論ツール、複数のハードウェアをサポート、LLM推論の実装が容易

一般的な紹介 llama.cppは純粋なC/C++で実装されたライブラリで、大規模言語モデル(LLM)の推論プロセスを簡素化するように設計されています。Apple Silicon、NVIDIA GPU、AMD GPUを含む幅広いハードウェア・プラットフォームをサポートし、推論速度の向上とメモリ使用量の削減のための様々な定量化オプションを提供します。プロジェクト ...

ハイパースペース(aiOS):分散型AI演算共有ネットワーク、aiOSジェネレーティブ・ブラウザ、ディープ・ナレッジ・インテリジェンス - チーフAIシェアリング・サークル

ハイパースペース(aiOS):分散型AI演算共有ネットワーク、aiOSジェネレーティブ・ブラウザ、ディープ・ナレッジ・インテリジェンス

概論 Hyperspaceは、世界最大のピアツーピアAIネットワークに基づく革新的なジェネレーティブ・ブラウザ(aiOS)であり、深い研究と分析のための強力なツールをユーザーに提供するように設計されている。様々なAIモデルとデータソースを統合することで、Hyperspaceは高品質なソースを利用し、情報ネットワークを迅速に生成することを可能にします。

LiteLLM:複数のビッグモデルAPIを統合的に呼び出すPython SDK、マルチプラットフォームのLLM呼び出し・管理ツール - Chief AI Sharing Circle

LiteLLM: 複数のビッグモデルAPIを統合的に呼び出すPython SDK、マルチプラットフォームLLM呼び出し・管理ツール

  概要 LiteLLMは、BerriAIによって開発されたPython SDKとプロキシサーバーで、複数の大規模言語モデル(LLM)APIの呼び出しと管理を簡素化し、一元化します。OpenAI、HuggingFace、Azureなどを含む100以上のラージモデルAPIをサポートしており、オペレーティングシステムに統合されています。

RWKV Runner:オープンソースの大規模言語モデルRWKV管理ツール - Chief AI Sharing Circle

RWKV Runner: オープンソースの大規模言語モデルRWKV管理ツール

概要 RWKV-Runnerは、RWKVモデルのために特別に設計された管理・起動ツールであり、使いやすいRWKV管理・起動ツールの提供を目指しています。完全に自動化されており、OpenAI APIと互換性のあるインターフェイスを提供しながら、サイズはわずか8MBとコンパクトです。 RWKVオープンソースコミュニティメンバーのj...

AIStarter:あらゆる種類の人気AIオープンソースプロジェクト管理ソフトウェアをワンクリックで導入 - Chief AI Sharing Circle

AIStarter:あらゆる種類の一般的なAIオープンソースプロジェクト管理ソフトウェアをワンクリックで導入可能

一般的な紹介 AIStarter は、AI プロジェクト管理を簡素化するために設計された無料のプラットフォームで、Windows、Mac、Linux 上であらゆる種類の一般的な AI オープンソースプロジェクトを簡単にダウンロード、インストール、共有することができます。すぐに使えるパッケージングと共有機能を提供し、強力なコミュニティサポートがあります。ユーザーは様々な...

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語