【长推】Crypto AI 的圣杯:去中心化训练的前沿探索

快链头条 2025-06-11 07:05:26
AI
阅读 4,075
二维码
微信扫一扫,分享此文章
去中心化训练并非适用于所有类型的 AI 任务。对于一些结构复杂、资源密集或协作难度大的任务,如大规模模型训练,依赖高显存、低延迟与高速带宽,这些在开放的异构网络环境中难以有效分割和同步。此外,数据隐私和主权限制严苛的领域(医疗、金融、涉密数据)受法律和伦理约束,难以实现数据开放共享;而企业闭源模型训练缺乏外部激励,也难以驱动去中心化参与。以上因素构成了目前去中心化训练的现实边界。但在某些任务类型中,去中心化训练显示出明显优势,例如结构轻量、易并行、可激励的训练任务,如 LoRA 微调、行为对齐后训练(如 RLHF、DPO)、数据众包训练和边缘设备参与的协同训练等。这些任务具备高并行性、低耦合性、容忍异构算力,适合采用 P2P 网络、Swarm 协议和分布式优化器开展协作训练。综上,去中心化训练在合适场景具备广阔应用前景,但需认清其边界与挑战。 Prime Intellect 是去中心化训练领域的先行者,其构建了一个无需信任、具备可验证奖励的强化学习协同训练网络。其核心包括 PRIME-RL 异步训练架构,允许异构节点独立训练并周期性同步;TOPLOC 训练行为验证机制,实现轻量级、局部一致性轨迹验证,确保训练真实性;以及 SHARDCAST 异步权重聚合协议,支持带宽受限下的多版本权重渐进式收敛。此外,Prime Intellect 开发了 OpenDiLoCo 通信框架与 PCCL 通信库,优化了带宽和异构设备的通信瓶颈。2025 年 5 月发布的 INTELLECT-2 模型,展示了其异步、去信任训练的可行性与性能。团队拥有丰富 AI 与区块链背景,累计融资超 2000 万美元。Pluralis 提出协议学习理念,强调模型权重不可导出,分布碎片化存储于多个节点,形成协议内资产。其基于异步模型并行(SWARM 架构)结合 Nesterov 动量,及结构感知列空间压缩,实现低带宽环境下稳定收敛。Pluralis 尚未开放测试网,技术路径挑战较大,主攻底层架构与系统安全。其团队由机器学习博士组成,2025 年完成 760 万美元融资,专注基础设施研发。 Gensyn 打造了以训练即挖矿为理念的去中心化训练执行网络,侧重任务分发、执行和结果验证。其 RL Swarm 模块支持多模型协同优化,基于生成 - 评估 - 共识流程,适应异构网络和节点弹性接入。Verde 模块结合 Proof-of-Learning 和图计算定位,实现高效训练真实性验证。通信层的 SkipPipe 机制提高低带宽与节点失效环境下的容错性。Gensyn 已完成 4300 万美元 A 轮融资,团队背景兼具分布式系统与机器学习。Nous Research 则提出主体性 AI 理念,反对单一调教式训练,主张模型具备认知多样性与不确定性。其核心架构 Psyche 网络和 DisTrO 通信优化器支持低带宽、异构设备与异步容错训练。Nous 开展自治代理 TEE_HEE 实验,验证 AI 数字身份与独立行为。其 Hermes 开源模型系列体现去指令化、多样性训练理念。2025 年完成 5000 万美元 A 轮融资,团队融合哲学与系统工程,致力于 AI 认知演化。\n原文链接

快链头条登载此文本着传递更多信息的缘由,并不代表赞同其观点或证实其描述。
文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
投资有风险,入市须谨慎。本资讯不作为投资理财建议。

推荐活动
...
...