区块链智能合约的AI安全,关乎全球AI安全【CFA/MSB/CPA/律师执照,精通加密货币、区块链、人工智能】

Web3和区块链技术远远不止涉及比特币和NFT。随着企业对Web3的潜力越来越了解,其中一个重要特性将发挥重要作用:智能合约。智能合约以自动化、开放和可信赖的方式强制执行用户之间的协议。它们以代码编写并在链上运行,可以取代那些需要大量文件工作和人工批准的脆弱高触及信任关系。然而,用代码表达协议是一把双刃剑。原始代码,尤其是用流行的智能合约语言Solidity编写的代码,缺乏解释人类沟通所需的自然语言处理能力。因此,大多数智能合约遵循由技术或金融专家使用的严格编码规则。

然而,利用大语言模型(LLMs)可以改变这一现状。我们都熟悉像ChatGPT这样的应用,它提供了对LLM家族潜在智能、推理和语言理解的接口。想象一下,将这种潜在智能与智能合约相结合!LLMs和智能合约共同工作,可以解释法律代码或社会规范表达等自然语言内容。这为更智能的智能合约打开了大门,由人工智能驱动。

然而,在跳上这个列车之前,探索智能合约和人工智能交集的可靠性和安全性方面的挑战是很好的。两个重大挑战是:模型不确定性和对抗性输入。当今使用应用程序与LLM(如ChatGPT)交谈时,你对与模型的交互了解甚少。模型版本可能会在新的训练中悄然更改。而且你的提示可能会在幕后被过滤,即被修改,通常是为了保护模型供应商而改变你的意图。使用LLMs的智能合约将遇到这些问题,这违反了它们的透明性基本原则。

我们相信,三种认证将是LLMs在智能合约中安全使用的关键。首先是对模型的认证,包括LLMs。对ML模型的接口应携带可信的独特接口标识符,精确指定模型及其执行环境。只有具有这种标识符,用户和智能合约创建者才能确切地知道LLM在今后会如何表现。

其次是对LLMs输入的认证,这意味着确保输入对于特定目的是可信的。例如,为了决定是否退票购买,Alice的智能合约可能接受用户提交的不是原始自然语言请求,而是仅来自可信的天气和航空信息网站的指针,这些数据由底层LLM解释。最后是对用户的认证。通过用户提供可信的凭据或进行支付,滥用用户可以被过滤、限制或以其他方式进行管理。

现在,AI社区正在应对各种挑战,随着AI开始驱动智能合约,Web3基础设施又可以为AI带来新的安全性和可靠性工具,这将使AI和Web3的交集大大互相受益。