Tether发布QVAC跨平台BitNet LoRA框架:支持消费级设备训练十亿参数AI模型

昨天6阅读
正在加载实时行情...

WEB3笔记锐评:

Tether这次动作很微妙。表面是AI技术发布,但结合其稳定币发行商身份,更像在为Web3基础设施布局。BitNet LoRA框架大幅降低AI训练门槛,直接指向“去中心化AI”的算力瓶颈。这可能是为未来链上AI代理、联邦学习等场景铺路,甚至可能与其储备资产或USDT的链上应用生态有关。在坎昆升级后以太坊DA成本下降的背景下,本地化、低成本的AI训练能与区块链数据验证、预言机等模块更好结合。

背景参考:

据官方公告,Tether 宣布推出 QVAC Fabric 中的跨平台 BitNet LoRA 微调框架,实现对 Microsoft BitNet(1-bit LLM)的训练与推理优化。该框架显著降低算力与内存需求,使十亿参数级模型可在笔记本、消费级 GPU 及智能手机上完成训练与微调。

该方案首次实现 BitNet 模型在移动端 GPU(包括 Adreno、Mali 及 Apple Bionic)上的微调,测试显示,125M 参数模型可在约 10 分钟内完成微调,1B 模型约 1 小时级别完成,甚至在手机端可扩展至 13B 参数模型。

此外,该框架支持 Intel、AMD 及 Apple Silicon 等异构硬件,并首次实现非 NVIDIA 设备上的 1-bit LLM LoRA 微调。性能方面,BitNet 模型在移动 GPU 上的推理速度较 CPU 提升 2 至 11 倍,同时在显存占用上较传统 16-bit 模型最高降低约 77.8%。

Tether 表示,该技术有望打破对高端算力与云基础设施的依赖,推动 AI 训练向去中心化与本地化发展,并为联邦学习等新型应用场景提供基础。

Web3笔记是一个专注于数字资产价格走势与区块链行情观察的知识类网站。每日更新比特币、以太坊、BNB、OKB、Solana等主流代币的行情分析,提供简洁、客观、数据驱动的市场观察笔记,帮助读者快速了解加密市场动态。

发表评论

快捷回复: 表情:
AddoilApplauseBadlaughBombCoffeeFabulousFacepalmFecesFrownHeyhaInsidiousKeepFightingNoProbPigHeadShockedSinistersmileSlapSocialSweatTolaughWatermelonWittyWowYeahYellowdog
验证码
评论列表 (暂无评论,6人围观)

还没有评论,来说两句吧...

目录[+]