大模型的中期战事
作者 吴洋洋
发表于 2023年7月

ChatGPT自去年11月末发布至今已经整整半年,全球有关生成式AI或者大语言模型(Large Language Models, LLMs)的投资仍然持续高涨,不同国家在这个领域的技术发展水平也正在拉开差距。这种差距,既表现在大模型的迭代速度上,更表现在各家大模型在应用场景端的落地速度上。

在美国硅谷,自5月中旬到6月中旬,几乎所有大公司都在忙着召开年度开发者大会,发布他们在AI领域的重要成果。先是Google,5月11日发布其第二代大语言模型PaLM 2,相较于一代模型,它能够理解更多种类的语言,并开始具备写代码的能力。只隔一天,5月13日,OpenAI CEO萨姆·奥特曼(Sam Altman)就在Twitter上宣布,所有ChatGPT Plus付费用户都可以试用“联网”与“插件”功能了,而在此之前,这些功能只有部分开发者才有试用资格。

5月24日微软也召开了开发者大会,宣布Copilot(注:基于GPT的AI助手)登陆Windows 11,用户可以获得操作系统级的AI功能;Bing将成为ChatGPT的默认搜索引擎插件,开发者为OpenAI开发的插件,也适用于Copilot。通过云计算平台Azure AI Studio,客户还能自定义公司的Copilot。

OpenAI在应用端的进展仍是最为迅猛的。在ChatGPT开放付费用户试用联网与插件两个功能后不到一周,ChatGPT的iOS版发布,最先只在美国地区上线,一周后,能够在苹果应用商店中下载这款应用的国家市场就扩展到了42个。

GPT引发的大模型开发热潮,还将一家芯片公司推向其发展历史上的巅峰—英伟达。尽管2024财年第一财季显示这家企业在总收入和净利润两项指标上出现大幅“双降”,同比分别下滑13%和21%,但由于其AI芯片收入同比增長了14%,财报发布当天,英伟达的股价飙升了近30%,市值净增长2000亿美元—相当于一个阿里巴巴、两个英特尔(注:阿里巴巴当天市值2099亿美元,英特尔1209亿美元)。

不仅如此,5月29日在台北举办的COMPUTEX大会上,英伟达CEO黄仁勋宣布一款名为“GH200 Grace Hopper”的芯片已经正式投产,这是一个CPU与GPU封装在一起的超级芯片。将256个超级芯片GH200连接在一起,就能组成一个数据中心DGX GH200,4个这样的数据中心,其算力就能够超过天河2号(目前中国最强的超级计算机)。

GPU比CPU更适合AI的并行计算,这个逻辑在黄仁勋口中不断被强调,然后很快就被资本市场接受了。黄仁勋在台北发表演讲的次日,英伟达市值首次超过万亿美元,成为继苹果、微软、亚马逊和Alphabet之后,第5个市值过万亿的公司(Facebook也曾在这个名单上,不过已经滑落很久了)。

自ChatGPT发布,中国公司就处于追赶状态。硅谷公司纷纷展示自己在AI时代的野心并在产品落地方面取得实质进展的时候,中国公司还处于模型开发和产品内测阶段。进入6月以来,双方的差距没有缩小,而是被进一步拉大了:OpenAI的基础模型、微软的操作系统、英伟达的AI芯片和苹果的AIGC设备都亮相了—硅谷公司在AI新纪元的版图已基本构建完成,而中国公司多数还挣扎在基础模型的开发上,加之“如何监管大模型”的问题依旧悬置,各家的应用类产品到底何时可以被许可上市,目前仍没有时间表。

以下是2023年6月全球不同市场在人工智能领域的进展。

全球篇

#OpenAI大幅更新大模型API,绑定更多开发者

6月13日,OpenAI大幅更新了其大语言模型的应用程序接口(API)方案,包括推出新的函数调用(function calling)功能、支持更长token(服务端生成的一串字符串)的API,以及降低使用价格等等。

“函数调用”功能,可以让开发者在调用GPT的API时,通过一个自定义参数,调用外部软件或数据源,从而更精确地控制GPT的回答。像“今天天气怎么样”的提问,开发者可以自定义函数调用的数据来源,比如告诉GPT“被问到天气信息时,可以从‘高德天气’这个平台获取数据”。用户一旦能自主控制数据来源,可有效避免GPT在没有数据时编造一个答案来回复。

OpenAI今年3月推出的“插件”(Plugin)功能,也是让GPT能够连接到模型以外的软件或数据,从而在回答特定问题时给出更有针对性的答案。此番推出“调用函数”,二者的区别在于,之前的插件功能只能在ChatGPT里使用,而函数调用可以让开发者对接自己公司的内部API,利用GPT分析内部数据。

OpenAI此前的战略是鼓励开发者更多地为GPT开发公用插件,形成一个“App Store”一样的“插件市场”,让GPT模型和ChatGPT这个智能机器人更好用,而OpenAI将因此成为一个平台型公司。

本文刊登于《第一财经杂志》2023年7期
龙源期刊网正版版权
更多文章来自
订阅