区块链技术助力去中心化人工智能发展

区块链与生成式人工智能(AI)的交叉探索正在重新获得关注,尤其是分散式AI。虽然大多数人都认为分散化对AI有着积极的影响,但在具体的技术路径中却遇到了重重阻碍。例如,尽管我们都认为分散式计算网络(DePIN)可以帮助抵消大型科技平台主导的GPU积累竞赛,但大型基础模型的预训练和微调要求集中的GPU拓扑结构和庞大的通信总线。类似地,分散式数据网络看似能够缓解大公司数据集中的问题,但实际上,解决这一问题的尝试进展甚微。思考分散化AI时,重要的是要意识到AI往往更多地向着集中化架构发展,这使得任何分散化努力都变得异常艰巨。要想克服这些固有挑战,分散式生成式AI需要依赖或影响四个关键趋势:开源生成式AI需要变得更加主流;分散式AI是一个推理游戏,没有别的;Web3计算和数据基础设施需要满足基础模型的需求;基础模型需要适应在分散式基础设施中运行。在技术发展的历史上,有些趋势基本上会演变成集中化市场,而另一些则是更开放和平衡的市场。移动技术就是向着两大主要竞争者的集中化市场演变的典型例子。这在很大程度上是由于硬件、软件、研究、供应链和分销等方面的复杂要求,只有少数公司能够掌握。其他趋势,比如数据库,开始时是由Oracle、IBM和微软等公司主导的集中化力量,后来演变成了有很多开源参与者的更具竞争性的市场。AI具有历史上最为集中化的技术DNA。这显然是由于在计算或数据等方面的依赖性,这些方面也是根本上集中化的。从这个角度看,人们自然而然地期望AI市场会被少数公司所主导。任何集中化市场都可以利用平衡的力量。从这个意义上讲,人们很容易地认为区块链可能成为这一元素。虽然这个结论在方向上是正确的,但要实现这一点,需要外部市场力量的推动,以及开源生成式AI的主流采用,以及Web3基础设施和基础模型的发展。没有开源生成式AI,就不会有分散式生成式AI。开源生成式AI领域的创新浪潮确实令人叹为观止,但只有少数几家公司,如HuggingFace、Meta、Mistral或Stability,才是OpenAI、Anthropic或Google的可行替代方案。分散式AI将专注于开源基础模型的推理工作流程。在具有严格安全和隐私约束的企业应用以及受监管行业的AI初创公司中,开源生成式AI似乎是一个强劲的增长向量。在这些情况下,Web3 AI基础设施可以成为一个可行的替代方案。如果我们假设开源生成式AI将在一定程度上获得主流应用,下一个挑战是了解生成式AI解决方案生命周期中哪些用例更适合分散式基础设施。在简单的术语中,生成式AI模型的生命周期可以分为三个主要阶段:预训练、微调和推理。前两者涉及使模型基于数据泛化知识,而推理则涉及模型输出的预测。基础模型的极大规模和复杂的计算需求使得分散式基础设施对于预训练和微调场景完全不切实际。这些工作流需要数百甚至数千个GPU,通过高性能通信总线连接,可以在数周甚至数月内处理数据并重新计算模型的权重。更不用说,预训练和微调所需的数据通常存储在云数据中心中,将其转移到分散式基础设施完全是不切实际的。从市场的角度来看,推理工作负载也占据了更大比例的生成式AI收入。现在我们知道,分散式AI将专注于开源基础模型的推理工作流程,我们需要找出哪种类型的Web3基础设施可以支持这些用例。当前的区块链运行时代还没有被设计来运行大型基础模型,即使是用于推理用例也是如此。为了解决这一挑战,需要新的针对更大规模和更复杂计算工作负载优化的区块链运行时。离线推理计算是一个不错的折中方案,但这并不能完全解决生成式AI的集中化问题。去年,微软创造了“小语言模型”这一术语,基于其对一个名为Phi的基础模型的研究和标志性论文“只需教科书”。这个小Phi只有30亿个参数,并且是在一系列计算机科学教科书上进行了预训练,它在数学和计算机科学任务中表现出色,甚至超过了70亿模型。Phi的研究表明,更小更专业的模型是生成式AI被采纳的最重要步骤之一。就像Web3基础设施需要扩展以适应基础模型一样,小型语言模型趋势可以使模型更适合在Web3基础设施上运行。在不久的将来,我们不太可能看到Web3基础设施运行万亿参数模型,但20-30亿参数的模型肯定是可能的。分散化生成式AI的道路虽然概念上很简单,但实际上非常困难。AI自然地演化为越来越集中化的技术,而任何分散化的努力都是一场艰苦的斗争。开源生成式AI模型的主流采用对于分散式AI基础设施的可行性至关重要。同样,生成式AI的当前状态表明,分散化AI的大多数初始用例将集中在推理而不是预训练或微调上。最后,要使分散式AI变得实用,Web3基础设施需要在数量级上扩展,而基础模型需要变得更小更适应分散化环境。这些因素的结合代表了通往分散式生成式AI的最佳路径。这条路径将会非常艰难,但至少目前来看,它是完全可能的。