
摘要:作为一款基于自然语言处理的聊天机器人,ChatGPT 自推出以来在全球范围内备受追捧,引起了广泛的关注和热议。ChatGPT 技术通过海量语料库的预训练学习,具备强大的多模态内容创作和人机交互功能,在诸多领域有着广泛的应用潜力。同时ChatGPT也存在成本高昂、版权模糊、内容监管、技术伦理等方面风险,为人工智能治理提出了更高要求。作为一款商业化产品,ChatGPT未来能否经受市场挑战仍未可知,但以ChatGPT为代表人工智能技术是未来趋势,有可能成为类似芯片、搜索引擎等网络基础设施,催生新一轮科技产业变革的发展机遇。面对ChatGPT带来的全球冲击,不应过度推崇或恐惧,而需积极拥抱伴随而来的科技产业变革,坚持人工智能技术自主创新,为自身发展提供有益借鉴。
关键词:人工智能 语言模型 ChatGPT
随着人工智能研究的不断进步,业界和学界尝试着使用不同的算法模型构建各类应用场景下的人工智能产品。在这一过程中,人机交互、机器翻译、语音识别、自然语言生成、大数据处理等一系列前沿技术已经取得令人瞩目的突破,ChatGPT正是基于这些技术的积累,将通用型人工智能产品提升到了新的高度。ChatGPT在引发人工智能产业革命的同时,伴随而来的技术伦理、数据安全、版权归属、个人隐私等问题也面临许多现实挑战,需要业界与学界更多的思考和实践。
一、ChatGPT全球走红背后的发展逻辑
ChatGPT凭借出色的处理能力和多样化的应用场景迅速走红,吸引了全球用户的广泛关注,其背后不仅体现出人工智能技术的积累与优化,也得益于互联网多年发展形成的信息沃土。同时,ChatGPT的火爆也凸显出许多新兴的法律和伦理挑战,人类如何与人工智能交互将成为网络空间治理的重要课题。
1.ChatGPT不是“横空出世”,是多年循序渐进的技术积累。ChatGPT是美国人工智能研究公司OpenAI推出的聊天机器人,于2022年11月3日正式发布后在短短一周内用户量突破100万,随后迅速在全球走红。2023年3月17日,基于GPT4.0技术的ChatGPT升级版正式发布,新版本增加了多模态内容生成等功能,其高效的处理能力、优秀的交互水平以及丰富的可拓展性再次引起业界热议。ChatGPT的核心技术是生成式预训练转换模型(GPT),通过互联网海量语料与人工训练的方式生成与用户对话的交互内容,因此也被称为“生成式人工智能”。根据OpenAI的官方说法,ChatGPT可以进行“回答问题”“语言翻译”“文本生成”“用户聊天”“情绪分析”“语音识别”“图像识别”“拼写检查”等功能,并可根据用户使用中的反馈不断修正迭代。
ChatGPT看似突然爆火,其实背后存在着长期的技术试错与行业积累。从ChatGPT本身来看,OpenAI早在2018年6月就发布ChatGPT底层GPT技术的初代版本,后又经过不断升级GPT2.0、GPT3.0、GPT3.5直至目前最新的GPT4.0版本。而从行业来看,类似ChatGPT的人机对话交互产品近年也层出不穷,如谷歌2011年发布聊天机器人“Talk Guru”,随后又于2016年发布“Google Assistant”、2017年发布“Chatbase”、2020年发布“Meena”、2021年发布“LaMDA”、2022年发布“Sparrow”以及2023年3月发布“Bard”等。其他公司如微软也于2014年发布“小冰”“小娜”、2016年发布“Tay”,脸书母公司Meta在2022年发布“BlenderBot”,Quora公司2022年发布“Poe”等。这些聊天机器人有些相似的语言模型和交互风格,其原理大致相同。诚如Meta首席人工智能科学家燕乐存所言:“就底层技术而言,ChatGPT并不是多么了不得的创新。”
2.ChatGPT不会“无中生有”,海量互联网信息是其培养沃土。根据OpenAI公布的开发论文显示,ChatGPT所获取的知识来源于数据库与网络搜索,并通过训练奖励模型来预测人类偏好,使用强化学习或拒绝抽样对其进行优化,从而提高模型答案的有用性和准确性。即ChatGPT所展现的内容本质上来源于公开信息,ChatGPT像过滤器一样通过算法模型来为用户呈现出最具有准确性的答案。意味着ChatGPT的所有生成内容都是有迹可循的,虽然可能通过语言模型将表达方式改变,但本质上仍然是对已有信息的再处理。
这种特性也使ChatGPT引起了诸多关于知识版权与内容剽窃的争议。ChatGPT所生成的内容版权属于ChatGPT开发者、使用者还是所引用的来源数据库,目前仍没有定论。中国信通院云计算与大数据研究所所长何宝宏曾表示:“在用户引导问答的过程中,ChatGPT的回答缺失对于来源的引用,这样有可能在用户未注明来源对生成内容进行使用时造成剽窃。”美国语言学家诺姆·乔姆斯基则直接表明“ChatGPT是一个高科技剽窃系统”。基于版权划分不清、责任归属模糊等问题,多家权威期刊、高校以及研究机构已对ChatGPT使用做出限制,《科学》已经明确禁止使用ChatGPT生成的文本,《自然》表示不能将ChatGPT列为合著者,香港大学、乔治华盛顿大学、巴黎政治学院、东京大学等也已经禁止学生使用ChatGPT撰写论文。
3.ChatGPT不能“为所欲为”,其使用必须遵循人类社会的道德规范。作为一款人工智能技术,ChatGPT拥有着深厚的科学基础以及广泛的可应用空间,但同时ChatGPT作为一种大众化产品,也必须遵循人类社会的科技伦理与道德准则。华盛顿大学艾米丽·本德与安吉丽娜·麦克米兰研究指出,ChatGPT使用的底层GPT技术就像是“随机说话的鹦鹉”,它们的知识仅来自训练数据中的统计规律,而不是类似人类的将世界作为一个复杂而抽象的系统。这种差异导致ChatGPT等人工智能在理解能力上与人类思维的本质差别,同时也产生了相伴随的技术伦理风险,限制ChatGPT等类似人工智能产品发展的不仅是技术水平,而是更为深层次的面向大众化之后的道德规范问题。
