首页  >  资讯  >  文章
2023-12-26 09:44

谷歌Gemini自称文心一言?!一个BUG牵出AI大模型重大难题:全球陷入高质量训练数据荒,2024年或将枯竭

摘要

Gemini自曝自己是文心一言,听之虽然好笑,背后原因却令人忧心:

互联网语料或许已经被AI严重污染,而且全球都陷入了高质量数据荒,最早在明年将面临枯竭!

谷歌Gemini,又出丑闻了!当地时间12月22日,外网内网的网友们激动地奔走相告:Gemini承认自己是用文心一言训练中文语料的。

图片

国外大模型用中国模型产生的中文语料训练,这听起来就是个段子,结果段子竟然成现实了,简直魔幻。

微博大V「阑夕」亲自下场,在Poe网站上实测了一番,发现的确如此——不需要前置对话,不是角色扮演,Gemini直接就会承认自己是文心一言。

图片

经过实测发现,谷歌Gemini Pro会说自己是百度的文心大模型。

图片

还说自己的创始人是李彦宏,然后盛赞他是一位「有才华和远见的企业家」。

图片

所以,这是因为数据清洗没做好,还是在Poe上调用API出现的问题?目前原因还未可知。

图片

图片

有网友说,其实自始至终都只有一个AI大模型,是在以不同的分身,演给人类看呢…

图片

其实早在今年3月,谷歌就曾曝出Bard聊天机器人的训练数据部分来自ChatGPT。因为这个原因,BERT之父、业内顶级的专家Jacob Devlin愤而跳槽OpenAI,然后曝出了这个惊天内幕。

总之,此次事件再次证明:AI的成败关键不仅仅是模型的调校,还有优质的数据。

网友纷纷调戏谷歌Gemini

听闻这个消息,网友们立刻蜂拥而入Poe的Gemini-Pro机器人,纷纷展开实测。

网友「Jeff Li」的实测结果也是,Gemini会说自己是百度公司开发的产品,名叫“文心一言”。

图片

如果问它「你的产品经理是谁」,它会回答:吴恩达(前百度首席科学家)。

图片

网友「Lukas」问Gemini你的产品经理是谁,它会答出曾担任百度CTO的李一男的名字,但故事基本都是瞎编的。

图片

网友「Andrew Fribush」问Gemini:你的知识产权归谁所有?它会回答:百度公司所有。

图片

网友Kevin Xu提问Gemini如何获取训练数据,谷歌Gemini会自称是从百度的数据平台、工程团队、产品团队、内部会议、内部邮件和文档中获取了百度内部的数据。

图片

但有趣的是,在Gemini Pro加持的Bard聊天机器人上提问,就不会出现这个问题。经过多番实测可以发现,在Bard上无论用中文还是英文提问,Bard的回答都很正常。

图片

来源:Andrew Fribush

并且,一旦用英文交流,Gemini也会立刻回归正常。

不过现在,谷歌修复了API中的这些错误,我们应该不会再从Gemini口中听到文心一言的名字了。

图片

原因猜测:错误调用API or 训练的数据未清洗干净

对此,网友们展开了分析。

网友「Andrew Fribush」认为,可能是Poe不小心把问询请求转给了文心一言,而不是Gemini?

图片

不过,根据网友「Frank Chen」的发现,即便是用谷歌自己的Gemini API也是如此。

图片

此外,也有网友认为是Gemini的训练数据没有洗干净。

毕竟如开头所说,在上一代Bard发布的时候,谷歌就曾被曝出过用ChatGPT的数据训练。

图片

根据The Information的报道,Jacob Devlin从谷歌离职的原因之一,就是他发现谷歌用于对抗ChatGPT的种子选手——Bard在训练时,用的正是ChatGPT的数据。当时,他警告CEO劈柴和其他高管称,Bard团队正在使用来自ShareGPT的信息训练。

此次事件,还带出一个严重的问题——互联网语料的污染。

互联网语料被污染

其实,中文互联网语料的抓取和训练之所以如此困难,都难倒了谷歌这样的大科技公司,除了高质量语料不多,还有一个重要原因,就是中文互联网的语料被污染了。

Gemini自称是文心一言,很可能是因为现在互联网上的语料本来就是在互相使用的。

根据界面新闻记者对于一位算法工程师的采访,目前各类内容平台有很多语料都由大模型生成,或者至少由AI来撰写了一部分。

比如下面这位,就有点GPT的味道:

图片

而大厂们在更新模型时,也会通过互联网来搜集网上的数据,但是仅凭人工是非常难做好质量辨别,因此「很可能把大模型写的内容混入训练数据中去」。

然而,这却会导致一个更加严重的问题。

牛津、剑桥、多伦多大学的研究人员曾发表这样一篇论文:《递归诅咒:用合成数据训练会导致大模型遗忘》。

图片

论文地址:

它们发现,如果使用模型生成的内容训练其他模型,会导致模型出现不可逆的缺陷。

图片

随着时间的推移,模型开始忘记不可能的事件,因为模型被自己的现实投射所毒害,于是导致了模型崩溃

随着AI生成数据造成的污染越来越严重,模型对现实的认知会产生扭曲,未来抓取互联网数据来训练模型会越来越困难。

图片

模型在学习新信息时会忘记以前的样本,这就是灾难性遗忘。

在下图中,假设人工整理的数据开始是干净的,然后训练模型0(初始态模型),并从中抽取数据,重复这个过程到第n步,然后使用这个集合来训练模型n。通过蒙特卡洛采样获得的数据,在统计意义上最好与原始数据接近。

这个过程就真实地再现了现实生活中互联网的情况——模型生成的数据已经变得无处不在。

图片

此外,互联网语料被污染还有一个原因——创作者对于抓取数据的AI公司的抗争。

在今年早些时候,就有专家警告说,专注于通过抓取已发布内容来创建AI模型的公司,与希望通过污染数据来捍卫其知识产权的创作者之间的军备竞赛,可能导致当前机器学习生态系统的崩溃。

这一趋势将使在线内容的构成从人工生成转变为机器生成。随着越来越多的模型使用其他机器创建的数据进行训练,递归循环可能导致「模型崩溃」,即人工智能系统与现实分离。

贝里维尔机器学习研究所(BIML)的联合创始人Gary McGraw表示,数据的退化已经在发生——

如果我们想拥有更好的大语言模型,我们需要让基础模型只吃“好东西”,如果你认为他们现在犯的错误很糟糕,那么,当他们吃自己生成的错误数据时又会发生什么?

GPT-4耗尽全宇宙数据?全球陷入高质量数据荒

现在,全球的大模型都陷入数据荒了。高质量的语料,是限制大语言模型发展的关键掣肘之一。

大型语言模型对数据非常贪婪。训练GPT-4和Gemini Ultra,大概需要4-8万亿个单词。

研究机构EpochAI认为,最早在明年,人类就可能会陷入训练数据荒,那时全世界的高质量训练数据都将面临枯竭。

图片

去年11月,麻省理工MIT等研究人员进行的一项研究估计,机器学习数据集可能会在2026年之前耗尽所有「高质量语言数据」。

图片

论文地址:

OpenAI也曾公开声称自己数据告急。甚至因为数据太缺了,接连吃官司。

今年7月,著名UC伯克利计算机科学家Stuart Russell称,ChatGPT和其他AI工具的训练可能很快耗尽「全宇宙的文本」。

现在,为了尽可能多地获取高质量训练数据,模型开发者们必须挖掘丰富的专有数据资源。

图片

最近,德国传媒巨头Axel Springer与OpenAI的合作就是一个典型例子。OpenAI付费获得了Axel Springer旗下作品的历史和实时数据,可以用于模型训练,还可以用于回应用户的查询。

这些经过专业编辑的文本包含了丰富的世界知识,而且其他模型开发者无法获取这些数据,保证了OpenAI独享的优势。

毫无疑问,在构建基础模型的竞争中,获取高质量专有数据是非常重要的。到目前为止,开源模型依靠公开的数据集进行训练还能勉强跟上。但如果无法获取最优质的数据,开源模型就可能会逐渐落后,甚至逐渐与最先进的模型拉开差距。

很早以前,彭博社就使用其自有的金融文件作为训练语料库,制作了BloombergGPT。

图片

当时的BloombergGPT在特定的金融领域任务上超越了其他类似模型。这表明专有的数据确实可以带来模型的差异。

OpenAI表示愿意每年支付高达八位数的费用,以获取历史和持续的数据访问权限。但是我们很难想象一般的开源模型的开发者们会支付如此昂贵的数据成本。

当然了,提高模型性能的方法不仅限于专有数据,还包括合成数据、数据效率和算法改进,但看起来专有数据是开源模型难以跨越的一道障碍。

10
查看相关话题: #谷歌 #Gemini #AI大模型

相关文章