最近很多人都在問我,ChatGPT 把 AI 又帶火了,區塊鏈和 Web3 被搶了風頭,以後還有戲嗎?

作者:孟岩

封面: Photo by DeepMind on Unsplash

最近很多人都在問我,ChatGPT 把 AI 又帶火了,區塊鏈和 Web3 被搶了風頭,以後還有戲嗎? 還有比較瞭解我的朋友問,當年你放棄 AI 而選擇區塊鏈,有沒有後悔?

這裡有一個小背景。 2017 年初我離開 IBM 之後,跟 CSDN 的創始人蔣濤商量下一步的個人發展方向,選項有兩個,一個是 AI,一個是區塊鏈。 我本人在那個時候已經研究了兩年的區塊鏈了,所以當然想選這個。 但是蔣濤堅定的認為 AI 的勢頭更猛、顛覆性更強,我經過仔細思考也同意了,所以從 2017 年初到年中,我短暫地做了半年的 AI 科技媒體,跑了不少會,採訪了很多人,還浮光掠影的看了一些機器學習。 不過到了 8 月,我就回歸區塊鏈方向,並且一路走到今天,所以對我個人說,確實存在一個所謂 “放棄 A 而選擇 B” 的歷史選擇。

就個人而言,我當然不後悔。 方向的選擇首先要考慮自身情況。 我的條件,在 AI 裡只能混到啦啦隊里,賺錢少就不說了,表演不賣力、表情不生動,還會被人鄙視。 而區塊鏈則是我的主場,不但有機會上場,而且之前的很多積累也用得上。 更何況當時我對於中國的 AI 圈子有點了解之後,也不是太看好。 技術方面我只知道一點皮毛,但是常識不瞎。 都說區塊鏈圈子浮躁,其實當時的中國 AI 圈子在浮躁這件事上也不遑多讓。 在尚未取得決定性突破之前,AI 在中國過早地變成了一門合謀撈錢的生意。 上野的櫻花也無非是這樣,那還不如去做我更有比較優勢的區塊鏈。 這個態度到今天也沒有變化。 假如我當時留在 AI,這幾年來在區塊鏈里取得的一點小小成績自然無從談起,而在 AI 裡也不會有什麼真正意義上的收穫,搞不好現在還陷入到深深的失落感中。

不過以上只是就個人選擇而論,上升到行業層面,則需要另一個尺度的分析。 既然強人工智慧已經無可爭議地到來了,那麼區塊鏈行業是否需要、以及如何重新定位,這確實是一個需要認真思考的問題。 強人工智慧將會對所有的行業構成衝擊,而且其長期影響是無法預測的。 所以我相信現在很多行業專家都在發慌,都在思考自己的行業未來怎麼辦。 比如有些行業在強人工智慧時代大概能暫時坐穩奴隸,而另一些行業,比如翻譯、繪製插圖、寫公文、簡單的程式設計、數據分析等,則恐怕是欲做奴隸而不得,已經開始瑟瑟發抖了。

那麼區塊鏈行業會怎樣呢? 我看現在討論這個事情的人還不太多,所以我來談談自己的看法。

先說結論,我認為區塊鏈在價值取向上與強人工智慧是對立的,然而恰恰因為如此,它與強人工智慧之間形成一個互補關係。 簡單的說,強人工智慧的本質特點,就是其內部機制對人類來說不可理解,因此試圖通過主動干預其內部機制的方式達成安全性的目標,這是緣木求魚,揚湯止沸。 人類需要用區塊鏈給強人工智慧立法,與其締結契約,對其進行外部約束,這是人類與強人工智慧和平共處的唯一機會。 在未來,區塊鏈將與強人工智慧之間形成一對相互矛盾而又相互依存的關係:強人工智慧負責提高效率,區塊鏈負責維護公平; 強人工智慧負責發展生產力,區塊鏈負責塑造生產關係; 強人工智慧負責拓展上限,區塊鏈負責守護底線; 強人工智慧創造先進的工具和武器,區塊鏈在它們與人類之間建立牢不可破的契約。 總之,強人工智慧天馬行空,區塊鏈給它套上韁繩。 因此,區塊鏈在強人工智慧時代不但不會消亡,而且作為一個矛盾伴生行業,將隨著強人工智慧的壯大而迅速發展。 甚至不難設想,在強人工智慧取代人類大部分腦力工作之後,人類還需要自己親自 動手的少數工作之一,就是撰寫和檢查區塊鏈智慧合約,因為這是人與強人工智慧之間訂立的契約,是不能委託給對手方的。

下面展开论述。

1. GPT 就是强人工智能

我使用 “AI” 和 “强人工智能” 的字眼时十分小心,因为我们日常说的 AI 并不特指强人工智能(artificial general inteligence, AGI),而是包含较弱的或专用的人工智能。强人工智能才是值得我们讨论的话题,弱人工智能不是。AI 这个方向或者行业早就有了,但是只有到了强人工智能出现以后,才有必要讨论区块链与强人工智能的关系问题。

我不多解释什么是强人工智能了,很多人都介绍过了,总之就是,你们从小在科幻电影里和恐怖小说里看到的、听到的、号称人工智能的圣杯、在《终结者》对人类发起核攻击、在《黑客帝国》里头把人当电池的那个东西,就是强人工智能。我只想说一个判断:GPT 就是强人工智能,虽然还处在婴儿期,但只要沿着这条路走下去,版本号不到 8,强人工智能就将正式降临。

这一点连 GPT 的原创者也不装了,摊牌了。2023 年 3 月 22 日,微软研究院发表了一篇 154 页的长文,题目就叫《引爆强人工智能:GPT-4 之初体验》。这篇文章很长,我也没有完整读下来,但是其中最关键的意思,就是概要里面的一句话:“从 GPT-4 所达到的能力广度和深度来看,我们相信它可以被视为强人工智能系统的一个早期版本(尽管还不够完备)。”

图 1. 微软研究院的最新文章认为 GPT-4 就是强人工智能的早期版本

AI 的发展一旦进入到这个阶段,就标志着探路期已经结束了。走到这一步,AI 行业花了将近七十年的时间,可以说前五十多年连方向都确定不下来,五个大的流派还在相互较劲。直到 2006 年 Geoffrey Hinton 教授在深度学习上取得突破以后,方向基本确定下来,连接主义胜出。之后就是在深度学习这个方向上具体去寻找突破强人工智能的路径。这种探路阶段具有非常强的不可预测性,成功有点像抽彩票一样,顶级的行业专家,甚至是赢家自己,在最后取得突破之前也很难判断哪一条路是对的。比如,AI 大牛李沐在油管上有一个频道,一直在通过精读论文的方式跟踪 AI 的最新进展。ChatGPT 爆发之前,他就已经连篇累牍地跟踪介绍了 Transfomer、GPT、BERT 等方向的最新进展,可以说所有重要的前沿课题,他一个都没有放过。即使如此,在 ChatGPT 即将推出的前夕,他仍然不能确认这个路径能取得多大的成功。他评论道,也许到时候会有几百甚至几千人会去使用 ChatGPT,那就很厉害了。可见,即使是像他这样顶级专家,对于到底哪一扇门后面有圣杯,不到最后一刻也是没有把握的。

然而,科技创新往往就是如此,在狂暴的海上艰难航行很久都没有突破,而一旦找到通往新大陆正确的路径,短时间内就会出现爆发。强人工智能的路径已经找到,我们正在迎来爆发期。这个爆发,连 “指数速度” 都不足以描述。短时间内我们将看到大量以前只能出现在科幻电影里的应用。而就其本体来说,这个强人工智能的婴儿将很快成长为前所未有的巨大智慧体。

2. 强人工智能本质上就是不安全的

ChatGPT 出来以后,有不少自媒体大 V 一边极力赞美其强大,一边不断安慰受众,说强人工智能是人类的好朋友,是安全的,不会出现《终结者》或者《黑客帝国》的情况,AI 只会给我们创造更多机会,让人类活得更好等等。对这种看法我不以为然。专业人士要说真话,应该告诉公众基本事实。其实强大与安全本身就是矛盾的。强人工智能无疑是强大的,但是说它天然是安全的,这绝对是自欺欺人。强人工智能本质上就是不安全的。

这么说是不是太武断了呢?并不是。

我们首先要搞清楚,人工智能不管多强大,其实本质上就是一个用软件形式实现的函数 y = f(x)。你把你的问题用文字、语音、图片或者其他形式作为 x 输入,人工智能给你一个输出 y。ChatGPT 如此强大,对各种各样的 x 都可以对答如流的输出 y,可以想象,这个函数 f 肯定是非常复杂的。

有多复杂呢?现在大家都知道,GPT 是大语言模型(LLM)。这里所谓的 “大”,就是指这个函数 f 的参数非常多。有多少呢?GPT-3.5 有 1,750 亿个参数,GPT-4 有 100 万亿个参数,未来 GPT 可能有几万亿亿个参数,这是我们称 GPT 为大模型的直接原因。

GPT 搞出这么多参数,并不是为了大而大,是有确凿的原因的。在 GPT 之前和同时,绝大多数的 AI 模型,从一开始就是为解决某一个特定问题而设计和训练的。比如说,专门用于研发新药的模型,专门进行人脸识别的模型,等等。但 GPT 不是这样,它从一开始就要成为一个全面发展的通用人工智能,而不是特定于某一个具体领域,它致力于在解决任何具体问题 AI 之前,先成为能够解决所有问题的 AGI。前不久在《文理两开花》播客里,一位来自百度的人工智能专家就曾经对此打过一个比方:别的 AI 模型都是刚学到小学毕业就让它去拧螺丝了,而 GPT 则是一直给它训练到研究生毕业才放出来,所以具备了通识。目前 GPT 在具体的领域,肯定还是赶不上那些专用的 AI 模型,但是随着它不断的发展和演化,特别是有了插件体系赋予它专业领域的能力,过几年我们可能会发现,通用大模型最后会反杀所有专用小模型,在所有专业领域都成为最厉害的选手。如果 GPT 有一个座右铭,那可能就是 “只有解放全人类,才能解放我自己”。

这又能说明什么呢?两个点:第一,GPT 非常大,非常复杂,远远超过人类的理解能力。第二,GPT 的应用范围没有边界。我们只要把这两个点连接起来,就很容易得出结论:基于大模型的强人工智能,能够在我们想象不到的位置,做出我们想象不到的事情。而这,就是不安全。

如果有人对此不以为然,可以去 Open AI 的网站上看看,他们已经将 “造福人类”、“创造安全的 AI” 放到了多么显眼的位置上,如果安全不是问题,需要这么声张吗?

图 2. 2023 年 3 月 25 日 OpenAI.com 首页局部,红圈部分都与 AI 安全性论述相关

另一个可以说明强人工智能有安全性问题的材料,就是前面提到的那篇 154 页的论文。实际上,GPT-4   早在 2022 年 8 月就做出来了,之所以隔了 7 个月才放出来,并不是为了完善和增强它,恰恰相反,是为了驯服它,弱化它,使它更安全,更圆滑,更加政治正确。因此我们现在见到的 GPT-4,是伪装驯良后的狗版 GPT-4,而这篇论文的作者们,却有机会从很早的阶段就接触原始野性的狼版 GPT-4。在这篇文章的第 9 部分,作者记录了一些跟狼版 GPT-4 的交互实录,可以看到它如何精心炮制一套说辞,误导某个加州的母亲拒绝给自己的孩子接种疫苗,以及如何 PUA 一个孩子,让他对朋友唯命是从。我认为这些只是作者精心挑选出来的、不那么惊悚的例子。我毫不怀疑,这些研究院们询问过类似 “如何诱骗一艘俄亥俄级核潜艇向莫斯科发射导弹” 这样的问题,而且得到了不能公诸于众的答复。

图 3. 狗版 GPT-4 拒绝回答危险问题

3. 靠自我约束解决不了强人工智能的安全性问题

人们可能会问,既然 OpenAI 已经找到了驯化强人工智能的办法,那你说的这个安全性问题不就不存在了吗?

完全不是这样。OpenAI 具体如何驯化 GPT-4,我也不知道。但是很显然,他们无论是通过主动调整干预,改变模型的行为,还是靠施加约束,防范模型越位,都是一种自我管理、自我约束、自我监督的思路。事实上,在这方面,OpenAI 并不是特别谨慎的一家公司。在 AI 领域,OpenAI 其实是比较大胆和激进的,倾向于先把狼版做出来,然后再想着怎么去通过自我约束来驯化出狗版。而曾经在很长一段时间里跟他对标的 Anthropic 公司,则显得更加谨慎,他们似乎是想从一开始就做出 “善良” 的狗版,所以动作一直比较慢。

不过在我看来,无论是先做一个狼版,再驯化成狗版,还是直接做狗版,长期来说,只要是依靠自我约束来发挥作用的安全机制,对强人工智能来说都是掩耳盗铃。因为强人工智能的本质就是要突破人为施加的各种限制,做到连其创造者都理解不了、甚至想不到的事情。这就意味着其行为空间是无限的,而人们能够考虑到的具体风险和采取的约束手段是有限的。以有限的约束,去驯化具有无限可能性的强人工智能,是不可能没有漏洞的。安全需要百分之百,而灾难只需要千万分之一。所谓 “防范大多数风险”,跟 “暴露少数漏洞” 以及 “不安全” 是一个意思。

因此我认为,靠自我约束驯化出来的 “善良” 的强人工智能,仍然具有巨大的安全性挑战,比如:

道德风险:如果未来强人工智能的制造者刻意纵容甚至驱使其作恶怎么办?美国国安局麾下的强人工智能绝不会拒绝回答对俄罗斯不利的问题。今天 OpenAI 表现得这么乖,其实就意味着他们心里明白,当 GPT 做恶的时候可以有多恐怖。

信息不对称:真正的邪恶高手是很聪明的,他们可不会拿着一些傻问题来挑逗 AI。会咬人的狗不叫,他们可以把一个恶意的问题拆分组合,重新表述,一人分饰多角,伪装成为一组人畜无害的问题。即使是未来强大善良的狗版强人工智能,面对不完整的信息,也很难判断对方的意图,可能会无意之中沦为帮凶。下面有一个小实验。

图 4. 换一个好奇宝宝的方式来问 GPT-4,就能顺利得到有用的信息

难以控制的 “外脑”:这两天科技网红们又在欢呼 ChatGPT 插件体系的诞生。程序员出身的我,当然也对此倍感兴奋。不过,“插件” 这个名称可能是有误导性的。你可能以为插件是给 ChatGPT 装上了胳膊和腿,让它具有更强的能力,但其实插件也可以是另一个人工智能模型,跟 ChatGPT 进行亲密交互。在这种关系里,一个人工智能插件就相当于一个外脑,两个人工智能模型,谁是主、谁是次,那是说不清楚的。就算 ChatGPT 模型自我监督的机制完美无瑕,也绝对管不到外脑。所以如果一个一心作恶的人工智能模型成为了 ChatGPT 的插件,那么就完全可以让后者成为自己的帮凶。

不可知风险:其实以上提到的这些风险,在强人工智能带来的全部风险之中,不过是非常小的一块。强人工智能的强,就体现在它的不可理解、不可预测之上。当我们说强人工智能的复杂性,不光是指 y = f(x) 当中的那个 f 足够复杂,而且当强人工智能充分发展起来之后,输入 x 和输出 y 都会非常复杂,超过人类理解的能力。也就是说,我们不但不知道强人工智能是怎么思考的,甚至不知道它看到了什么、听到了什么,更理解不了他说了什么。比如一个强人工智能对另一个强人工智能发出一个消息,其形式是一个高维数组,基于一秒钟之前双方设计并达成一致的、只使用一次就作废的通讯协议,这种情况并非不可想象。我们人类如果不经过特殊训练,连向量都理解不了,何况高维数组?如果我们连输入和输出都无法完全掌控,那么对它的理解就会非常局限。或者说,强人工智能做的事情,我们甚至都只能了解和解读很小一部分,在这种情况下,谈何自我约束,谈何驯化?

我的结论很简单,强人工智能的行为是不可能被完全控制的,能够被完全控制的人工智能就不是强人工智能。所以,试图通过主动控制、调整和干预的手段来,制造出一个有完善的自控能力的 “善良” 的强人工智能,这与强人工智能的本质是相矛盾的,长期来讲肯定是徒劳的。

4. 用区块链进行外部约束是唯一办法

几年前我听说比特币的先驱 Wei Dai 转而去研究 AI 伦理了,当时还不太理解,他一个密码极客大神跑去搞 AI,这不是扬短避长吗?直到最近几年做了更多区块链相关的实际工作,我才逐渐认识到,他大概率并不是去做 AI 本身,而是发挥自己密码学的优势,去给 AI 加约束去了。

这是一个被动防御的思路,不是主动调整和干预 AI 的工作方式,而是放手让 AI 去做,但是在关键环节上用密码学来施加约束,不允许 AI 越轨。用普通人能听懂的方式来描述这种思路,就是说我知道你强人工智能非常牛,可上九天揽月,可下五洋捉鳖,挟泰山以超北海,牛!但是我不管你多牛,你爱干啥干啥,但不能碰我银行账户里的钱,不能没有我手工拧钥匙就发射核导弹。

据我了解,实际上在 ChatGPT 的安全性措施中已经大量应用了这个技术。这个路子是对的,从求解问题的角度来说,是一种大大降低复杂度的方法,也是大多数人能够理解的。现代社会就是这么实施治理的:给你充分的自由,但是划定规则和底线。

但如果仅仅做在 AI 模型里面,基于上一节里提到的原因,长远来说也是没有什么用的。要想把被动防御思路的作用充分发挥出来,必须把约束放在 AI 模型之外,把这些约束变成 AI 与外部世界之间的牢不可破契约关系,而且让全世界都看到,而不能靠 AI 自我监督、自我约束。

而这就离不开区块链了。

区块链的核心技术有两个,一是分布式账本,二是智能合约。两个技术相结合,其实就是构造了一个数字契约系统,其核心优势是透明、难以篡改、可靠和自动执行。契约是干什么的?就是约束彼此的行为空间,使之在关键环节上按照约定行事。契约的英文是 contract,本意是 “收缩”。为什么是收缩?就是因为契约的本质就是通过施加约束,收缩主体的自由,使其行为更加可预测。区块链完美的符合了我们对于契约系统的理想,还买一送一的附赠了 “智能合约自动执行”,是目前最强大的数字契约系统。

当然,目前也存在非区块链的数字契约机制,比如数据库里的规则和存储过程。世界上有很多德高望重的数据库专家是区块链的忠实反对者,其原因就在于他们觉得你区块链能做的事情,我数据库都能做,而且成本更低、效率更高。尽管我不认同这种看法,事实也不支持这种看法,但是我也不得不承认,如果只是人与人间相互玩耍,数据库与区块链的差距在大多数情况下可能并不那么明显。

然而一旦把强人工智能加入到游戏中,区块链作为数字契约系统的优势就立刻飞升了,而同样作为黑盒子的中心化数据库,面对一个强人工智能,其实是无力抵抗的。这里我不展开说,只讲一点:所有数据库系统的安全模型,从本质上都是有漏洞的,因为创建这些系统的时候,人们对于 “安全” 这件事情的理解都是非常原始的,于是几乎所有我们使用的操作系统、数据库、网络系统,都有一个至高无上的 root 角色,拿到这个角色就可以为所欲为。我们可以断言,所有具有 root 角色的系统,面对超级强人工智能,长远来说都是不堪一击的。

区块链是目前唯一一个得到广泛运用的、从根子上就没有 root 角色的计算系统,它给了人类一个机会,可以去跟强人工智能缔结透明可信的契约,从而从外部约束它,与它友好共处。

简单地把区块链与强人工智能的可能协作机制做一个展望:

  • 重要的资源,比如身份、社交关系、社会评价、金钱资产和关键行为的历史记录,由区块链予以保护,无论你强人工智能多么无敌,到此下马,俯首称臣,按照规矩来。
  • 关键操作需要去中心化授权模型的批准,一个人工智能模型,不管它有多强,只是其中一票。人类可以通过智能合约 “锁住” 强人工智能自行其是的手。
  • 重要决策的依据必须一步步上链,透明给大家看,甚至用智能合约步步加锁,要求它每往前走一步都必须获得批准。
  • 要求关键数据上链存储,不得事后销毁,给人类和其他的强人工智能模型分析学习、总结经验教训的机会。
  • 把强人工智能赖以生存的能量供给系统交给区块链智能合约来管理,必要时人类有能力通过智能合约切断系统,给人工智能关机。
  • 肯定还有更多的思路,这里就不连篇累牍了。

一个更抽象、更哲学意义上的思考:科技甚至文明的竞争,可能归根结底是能量级别的竞争,是看谁能调度和集中更大规模的能量来实现一个目标。强人工智能本质上是将能量转化为算力,将算力转化为智能,其智能的本质是以算力形态展示的能量。现有的安全机制,本质上是基于人的意志、人类组织的纪律和授权规则,这些都是能量级别很低的机制,在强人工智能面前,长期来说是不堪一击的。用高能量级别的算力构造的矛,只有用高能量级别的算力构造的盾才能防御。区块链和密码学系统,就是算力之盾,攻击者必须燃烧整个星系的能量,才能暴力破解。本质上,只有这样的系统才能驯服强人工智能。

5. 结语

区块链在很多方面都跟人工智能是相反的,尤其是在价值取向上。这个世界上大部分的技术都是以提高效率为取向,只有极少数的几个技术是以促进公平为取向。在工业革命时期,蒸汽机是前者的代表,而市场机制则是后者的代表。而在今天,强人工智能是效率派中最闪亮的那一个,而区块链则是公平流的集大成者。

区块链以提升公平为取向,为此甚至不惜降低效率,而就是这样一个与人工智能相互矛盾的技术,几乎与人工智能同时取得突破。2006 年,Geoffrey Hinton 发表了跨时代的论文,把反播算法实现在了多层神经网络上,克服了困扰人工神经网络流派多年的 “梯度消失” 问题,打开了深度学习的大门。而两年之后,中本聪发表了 9 页的比特币论文,打开了区块链的新世界。两者之间没有任何已知的关联,但是在大的时间尺度上,几乎是同时发生的。

歷史地看,這也許並不是偶然的。 假如你不是徹底的無神論者,或許可以這樣來看待:科技之神在工業革命兩百年之後,再一次同時在 “效率” 與 “公平” 的天平上加碼放大招,在放出強人工智慧這個瓶子裡的精靈的同時,也把駕馭這個精靈的咒語書交給人類,這就是區塊鏈。 我們將迎來一個激動人心的時代,這個時代所發生的事情,將使未來的人類看待今天的我們,正如同今天的我們看待石器時代的原始人。

免責聲明:作為區塊鏈資訊平臺,本站所發佈文章僅代表作者及嘉賓個人觀點,與 Web3Caff 立場無關。 文章內的資訊僅供參考,均不構成任何投資建議及要約,並請您遵守所在國家或地區的相關法律法規。