ツールの共有#
MLC-LLMは、AI モデルの開発、最適化、展開を誰もが自分のデバイスでローカルに行えるようにします。
特徴#
サーバーレベルのハードウェアだけでなく、ユーザーのブラウザ、ノートパソコン、モバイルアプリなど、さまざまなデバイスで推論を行います。生産性を重視し、Python を優先する方法でモデルと最適化を実装するための繰り返し可能でシステマティックなワークフローを提供します。
ユーザーは、Huggingface のオープンソースモデルからの異なるモデルパラメータを使用して自分自身のアプリケーションを構築することができます。ビルド時には自動的に量子化が行われます。
また、公式にコンパイルされたアプリケーションを直接使用することもできます。プロジェクト全体がローカルデバイスで実行されます。
プラットフォーム#
公式の MLC Chat アプリのダウンロード:
サポートされているプラットフォームは以下の通りです:
- iPhone、iPad;
- Android のスマートフォン;
- Apple Silicon および x86 MacBooks;
- AMD、Intel、および NVIDIA GPU(Windows および Linux 上の Vulkan を介して);
- NVIDIA GPU(Windows および Linux 上の CUDA を介して);
- ブラウザ上の WebGPU(WebLLMプロジェクトを介して)。
モデルパラメータをダウンロードするため、データ通信量が多くなります。
モバイルデバイスでの使用はメモリ制限を超える場合があります。
免責事項#
この記事はツールの共有記録として提供されています。
この記事はHBlogと関連しています。