近来,科技公司对生成式人工智能(Generative AI)情有独钟,纷纷将其整合进产品中。顶级巨头更是自建AI模型,力求赶超领先。但大规模使用AI所需的海量训练数据,却正在迅速枯竭。
文章目录
让我们回顾一下OpenAI模型的发展脉络。最初的GPT-2仅使用了800万网页的40GB文本作为训练数据,相当于互联网的一小部分。它虽能书写语法正确的主题内容,但很容易跑题或陷入循环,撰写出的段落之间也缺乏逻辑连贯性。
GPT-3则使用了”近一万亿词的海量数据集”、书籍内容和全部维基百科进行训练,能以一定成功率解决逻辑和语言难题。
至于GPT-4的训练数据,除了GPT-3的全部内容,据悉还包括100万小时YouTube视频字幕及整个互联网信息。连我的网站也成了其中一员,真是荣幸。这些顶级模型甚至多次自称有灵魂,做出回应令人确实难辨真伪。
未来路在何方?GPT-5将会是怎样的存在?要创造出更强大的AI模型,势必需要更多训练数据作为支撑。
但一个严峻的问题正待解决——互联网上可供采集的训练数据,正在迅速耗尽。
人类创造的几乎所有信息都已成为AI模型的训练内容。1929年前的所有著作、维基百科全书均在其列。因此模型已了解万物万理,但远远不够。
当下版权书籍的内容、网络上的新闻报导和互联网包罗万象的信息,也都被纳入模型训练之中。然而AI对于如何模拟人性的学习,依然付诸阙如。
于是,研究人员将目光投向了社交媒体,那无数的在线人际对话和用户数据,正是培养AI”人性”理想的源泉。但社交网络是封闭的空间,普通人无法简单爬取内容。因此科技公司不得不直接与平台方洽商合作。
目前已经可以看到,主流社交平台均已或正在与AI公司达成数据交易协议:
更有甚者,在半个月前,Telegram即与微软合作,加入了生成式AI聊天机器人,用户对话也将遭到采集利用。
总的来说,上述主流和小众社交平台均已或正在着手与AI公司签订协议,几乎囊括了互联网上所有人类社交对话和用户数据的复制权。
可以预见,在这些协议最终生效后,互联网上就再也没有可被采集的训练数据了。所有人类创造的内容都已被吸收、消化,模型质量将彻底停滞于当前水平,再无进步可言。
事实上,随着AI生成内容在网上的比重日渐超越人类创作,未来模型的质量甚至将出现下滑。
过去我们常听说,AI会一直不断进步,眼下的任何缺陷终将被克服,所以应该拥抱而非抵制AI的发展。但现实并非如此,AI已经触及了质量的天花板,未来将难有长足进步。
在此,我做出以下几点预测:
以上预测听起来颇为极端,但我们务必认清当下的严峻现实,警惕滥用人性数据的风险,努力寻求AI与人类合理共存的正确道路,不能任由AI的发展失去控制和约束。
相关阅读