LoRA

LoRA

Tag

当前位置:首页 > LoRA >
  • 如何用LoRA微调Gemma进行移动端快速推理?

    如何用LoRA微调Gemma进行移动端快速推理?

    Ru果你曾经在电脑上跑过大语言模型,却因为显存、网络延迟而抓狂,那么这篇文章可Neng会点燃你的期待。我们将把谷歌开源的 Gemma 模型压缩、微调,再交给手机或浏览器,让它们在本地就Neng像聊天机器人一样流畅回答。 🔎 背景小科普:几个关键词速读 Gemma Google 发布的开源 LLM,体积从 270M 到 7B 不等,兼顾轻量与性Neng。 LoRA 只在模型内部插入少量可训练矩阵

    查看更多 2026-05-08

提交需求或反馈

Demand feedback