Unsloth Studio 上线:首个本地可视化大模型微调平台,显存占用最高可降 70%

广受关注的高性能微调库 Unsloth AI 正式发布了 Unsloth Studio。这是一款开源、零代码的本地可视化工具,旨在显著降低工程师微调大语言模型(LLM)的门槛,让开发者不再为复杂的 CUDA 配置与高昂硬件支出发愁。

image.png

Unsloth Studio 底层采用由 Triton 编写的专用反向传播内核,相较常规微调框架带来了明显提升:

  • 训练速度翻倍: 训练效率提升至 2 倍。

  • 显存节省 70%: 在保证精度不下降的前提下,大幅降低显存占用。

  • 消费级显卡友好: 单张 RTX 4090 或 5090 等家用显卡,即可微调过去需多卡集群才能运行的 8B/70B 级模型(如 Llama 3.3、DeepSeek-R1)。

该平台将数据准备、训练到部署的全流程统一到一个直观的 Web UI 中:

  • 可视化数据配方: 提供节点式工作流,自动摄取 PDF、JSONL 等多种格式,并可借助 NVIDIA DataDesigner 将杂乱文档转成结构化指令数据集。

  • 强化学习支持: 内置 GRPO(群组相对策略优化),源自 DeepSeek-R1。无需单独的评判器模型,也能在本地硬件上训练具备多步推理能力的模型。

  • 一键导出部署: 支持一键导出为 GGUF、vLLM 或 Ollama 格式,打通从训练权重到生产推理的最后一公里。

随着 Unsloth Studio 的到来,大模型微调正从依赖昂贵云端服务,转向更私密、低成本的本地开发模式。它不仅开箱支持 Llama 4 与 Qwen 系列,也为企业自有的定制化模型开发提供了强有力的工具。

技术详情:https://unsloth.ai/docs/new/studio

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞8 分享