生成式人工智能:变革已至
作者 覃中远
发表于 2025年8月
图/AI 生成

如今,生成式人工智能正以颠覆性的创新重塑人类与技术的交互方式。它通过深度学习和算法优化,以学习海量数据(如文本、图像、音频、视频等),模拟人类的创造力,“理解”其中的模式和规律,然后生成形式多样的内容。这项技术从最初的理论探索到如今落地千行百业,不仅展现了强大的创造力,更成为推动数字化转型和产业升级的核心引擎。

从理论探索到技术觉醒

1956 年的达特茅斯会议诞生了“人工智能”(Artificial Intelligence,AI)一词,被认为是这项技术发展的开端。但包括20世纪40年代沃伦·麦卡洛克等对人工神经网络的探索、1950 年艾伦·图灵提出的图灵测试等也是这项技术雏形的重要事件。达特茅斯会议之后的数十年间,由于技术发展路线的不明确,同时受限于算力与数据,AI发展历经沉浮。20 世纪 80 年代至 90 年代,专家系统、隐马尔可夫模型等理论学习、机器学习的模型和系统相继提出,为后续的人工智能的发展奠定了一定基础。由于 70 年代时人工智能的发展并未取得预期中的进展,导致 AI 一词饱受批评,因此在 20 世纪 80 年代至 90 年代该方面的研究一般冠以“知识工程”或“知识智能系统”等名称。

21 世纪初,深度学习的兴起为生成式 AI带来突破契机。2014 年,伊恩·古德弗洛提出生成对抗网络(GAN),通过对抗训练实现图像生成质的飞跃,标志着生成式 AI 进入技术觉醒期。2015 年,OpenAI 成立,开始全力推动生成式 AI 研究。2017 年,美国谷歌公司提出Transformer 架构(如 BERT、GPT),极大提升了自然语言处理(NLP)能力。在论文《Attentionis All You Need》中,研究者提出了这种名为Transformer 的全新神经网络架构,这一模型摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN)的设计思路,转而完全依赖于自注意力(self-attention)机制来处理序列数据。这一架构的提出不仅解决了长序列建模的瓶颈,还为后续大语言模型(LLM)的爆发奠定基础。

爆发式成长的技术跃迁

过去十余年,生成式 AI 经历了从单模态到多模态、从专用到通用、从学术研究到产业落地的高速发展,可简要划分为三个阶段:

技术探索期(2014—2018 年)。 生 成对抗网络成为图像生成的主流技术,英伟达的StyleGAN 即是基于生成对抗网络的深度学习模型,广泛应用于人脸生成、图像编辑等领域,其核心创新在于通过映射网络和自适应实例归一化技术实现多层级风格控制‌。

模型规模化期(2019—2021 年)。2018年,OpenAI 发布了最早的一代大型模型GPT-1。

本文刊登于《海外星云》2025年5期
龙源期刊网正版版权
更多文章来自
订阅