工具分享#
MLC-LLM讓每個人都能在每個人的設備上本地開發、優化和部署 AI 模型。
特點#
跨各種設備進行推理,不僅包括伺服器級硬體,還包括使用者的瀏覽器、筆記型電腦和移動應用程式。提供可重複、系統化和可定制的工作流程,使開發人員能夠以生產力為中心、Python 優先的方法實施模型和優化。
使用者可以自己構建基於不同模型參數的應用,模型參數來自 Huggingface 的開源模型,構建時會自動進行量化。
也可以直接使用官方編譯好的應用,整個專案運行在本地設備。
平台#
官方提供的 MLC Chat app 下載:
支持的平台包括以下:
- iPhone, iPad;
- Android phones;
- Apple Silicon and x86 MacBooks;
- AMD, Intel and NVIDIA GPUs via Vulkan on Windows and Linux;
- NVIDIA GPUs via CUDA on Windows and Linux;
- WebGPU on browsers (through companion project WebLLM).
由於要下載模型參數,會消耗較多流量
手機端使用可能會超內存限制
声明#
本文僅作為工具分享記錄。
本文與HBlog。