2024年9月,人工智能依然是舆论场、投资者的热门话题,然而,当下的人工智能产业似乎发展得很好,但似乎和普通人没有多大关系,除了偶尔在短视频平台上看到一些AI生成的短视频作品,国内似乎还未出现一款AI大模型相关的杀手级应用,人工智能似乎进入了一个发展瓶颈期。
有人开始质疑,人工智能是否是科技巨头推出的一个虚伪概念,毕竟每隔几年,科技公司就会造一个概念,而上一个造出的概念是元宇宙。那么,AI大模型带来的是昙花一现还是技术革命?对此,我们需要先回顾过去,再展望未来。
从历史看未来,AI技术走到哪一步?
要知未来,需知过去。人工智能的故事最多,跨越时间也最久。
事实上,计算机就是人工智能,二进制的晶体管显示“0”和“1”,这种模式和人类大脑神经元的信息处理方式类似,只是更加简化,且数量更少。所以,测试人工智能治理水平的图灵测试在1950年推出,因为那时候所有人的意识中“计算机=人工智能”。
继而,人工智能从计算机时代进入逻辑推理时代。举个例子,如果某个迷宫有出口,那么只要在迷宫中一直靠右或靠左走,就一定能找到出口,对于人类可能要跑断腿,但计算机有充足的耐心找到出口。逻辑推理就是按照路径一个个去对照着找答案,直到所有数据都被对照一遍,输出最后的答案。人工智能逻辑推理时代最成功的企业是IBM,面向B端,IBM推出专家系统辅助企业决策,面向C端,IBM的深蓝计算机在国际象棋上大放异彩,名噪一时。
2006年,辛顿等三位专家提出深度学习算法,一种基于神经网络的新算法开始流行。深度学习模仿人类神经元感知事物的过程,在算法中,大量神经元组成神经层,多个神经层构建神经网络,神经网络的一边是输入的问题,另一边是输出的答案,而开发人员只要一遍遍地输入问题和验证答案,神经网络就能模仿人类识别文字、图像、视频的能力。从而像人一样思考、创作。以视觉举例,我们眼睛看到的是一张树叶的图像,而这张图像要经过神经层的层层识别,才会在我们大脑中挑出“树叶”这个词汇。所以,深度学习的本质是模仿人类。
深度学习是过去20年人工智能大厦的地基,而在地基上,领跑的是谷歌,在布局10年后,2016年谷歌推出阿尔法狗,下围棋的AI,结果全球围棋界被阿尔法狗杀得人仰马翻。由于围棋是东亚传统项目,很多中国人通过阿尔法狗第一次开始正视智能时代的到来。而在阿尔法狗成功后,谷歌开始多领域普及深度学习。比如2012年起,谷歌就开始用深度学习布局自动驾驶,比如阿尔法狗升级为阿尔法折叠,开始在蛋白质特征预测领域发光发热,甚至颠覆了整个蛋白质科学的研究方式。
谷歌在人工智能领域最重要的贡献,是2017年发布的Transformer,算法描述非常复杂,比如注意力机制,比如允许对依赖关系建模,这些技术名词对于我们社科类文章并无益处,所以只需知道一点特征,Transformer能够实现更高水平的并行化。在深度学习时代,制约人工智能发展的基本要素是算法、数据和算力。而由于互联网发展,互联网产生的数据越来越充沛,而算力则相对不足。并行化的好处,就是能够让算力可以堆叠。一台智算服务器的算力有限,那么1万台并行计算呢?这就为大规模数据训练创造了很好的条件。
Transformer算法就是OpenAI开发的AI大模型ChatGPT的基础,GPT中的T就是Transformer。而基于Transformer的大模型有很多,比如谷歌的bard,和GPT不同的是,bard的生成模式是填空,而GPT的生成模式是用前文来生成后一个字,逐字生成。可以看出,GPT具有相对优势,因为逐字生成更符合人类语言特点。
2019年,GPT二代发布并开源,同年7月和微软合作,转为封顶盈利公司,其算法也从开源转向闭源。此时,OpenAI在人工智能领域的名气远不如谷歌,直到2022年11月,ChatGPT正式发布,继而一炮而红,迎来了颠覆。ChatGPT是第一款面向C端的人工智能杀手级应用。谷歌仓促应战,结果反而因为各种“答非所问”的状况被比下去,OpenAI在AI大模型领域独占鳌头。而面对OpenAI的成功,美国和中国的科技巨头都迅速展开算法、算力“军备竞赛”,“百模大战”在中美两国同时开启。
各有千秋,中美AI军团并肩而行
ChatGPT为什么能脱颖而出?
因为OpenAI做对几件事:首先是大力出奇迹,在ChatGPT之前,谷歌已经不止一次宣称自家AI能通过图灵测试,并在展示会上演示用AI订餐,但谷歌自己并不相信通过海量语料学习会产生奇迹,所以,谷歌经常用中小模型在垂直领域里倒腾,自动驾驶、阿尔法狗都是垂直领域的应用。

