这个AI(指GPT-3)是有史以来最大的语言模型,它能依据需要产出看起来就像是人书写的文本,但并不能让咱们更靠近真正的人工智能。
----Will Douglas Heaven
一位位于圣弗朗西斯科的开发者兼艺术家Arram Sabeti上周在推特上写道:“玩GPT-3让人感觉看到了(人工智能)的将来”。
OpenAI于5月份首次在一篇钻研论文里叙述了GPT-3。但上周OpenAI开始逐渐向一些申请测试并被选中的用户凋谢GPT-3的应用。目前,OpenAI心愿外界开发者能帮忙他们摸索GPT-3能做什么,OpenAI打算之后将GPT-3商业化,通过可订阅云服务为商业提供AI能力,工夫点在年内。
GPT-3是有史以来最强力的语言模型。去年公布的GPT-3的后任GPT-2,有能力依据输出的文本生成让人感觉是人写的一连串文本。但GPT-3是一个更大的提高,这个模型有1750亿训练参数,而GPT-2相比之下只有15亿。对于语言模型来说,模型大小的确对其性能有影响。
Sabeti给出一个他用来夸耀的blog链接,blog里有他的短文、诗歌、新闻稿、技术手册等他用GPT-3发明的文本。GPT-3甚至能刻意模仿特定的作者,写出作品。Mario Klingemann,一位工作中用到机器学习的艺术家,分享了一个短篇“在推特上生存的重要性”,内容是“伦敦人民仍然感兴趣的、最近还持续存在的社交生活是推特,这是个奇怪的事实。该事实令我印象粗浅,当我去海边度过我的定期休假时,我发现海边鸟叫声多得像个鹦鹉笼”(Twitter首字母大写,特定名词推特,twitter首字母小写,失常词语鸟叫声),该短篇是模拟Jerome K. Jerome的格调写的。Klingemann示意他只向GPT-3输出了题目、
作者名以及初始词语“It”。(这个)链接甚至有一篇齐全用GPT-3写的对于GPT-3的材料文章,看起来合乎逻辑。
其他人发现,GPT-3能够生成任何品种的文本,包含吉他琴谱和代码。比方,微调GPT-3,GPT-3就能生成HTML而不是自然语言文本。网页开发者Sharif Shameem展现,他能够通过向GPT-3输出“一个像西瓜一样的按钮”或者“红色的大文本‘欢送来到我的新闻稿’以及名为‘订阅’的蓝色按钮”,来让GPT-3生成网页布局。即便是开创性地将3D图形学利用于像Doom这样的电子游戏、现在的Oculus VR首席征询技术官、传奇程序员John Carmack也心神不宁地示意:“最近简直是意外地发现GPT-3在某种程度上能够写代码,(这件事)的确带来了一些震撼。”
但忽视其最新的戏法,GPT-3仍然偏向于生成无害的性别歧视或者种族歧视文本。在GPT-2上,微调能够缩小此类文本的产出。
并不令人意外地,很多人很快就开始议论人工智能。然而,GPT-3那宛如真人书写的文本输入以及令人诧异的多才多艺是杰出的工程的后果,而不是真正的智能。首先,(GPT-3这个)AI仍然会呈现愚不可及的谬误,这种谬误表明,GPT-3齐全没有常识。即便是GPT-3的胜利之处也不足深度,因为GPT-3的训练,少数像是复制粘贴,而不是原创文本。
确切来说,GPT-3是个黑盒子,人们并不知道其推理过程。GPT-3体现好的中央在于,它依照需要,以乏味的形式,依据数以亿计从网络中收集到的浩瀚多样的文本片段来合成文本。
这不是在贬斥OpenAI获得的成就。一个像GPT-3一样的工具有很多新用途,无论好(从让聊天机器人更好到帮人写代码)还是坏(从让聊天机器人提供错误信息到让孩子在作业里舞弊)。
然而AI里程碑往往会毁于过分的炒作。即便是和Elon Musk一起创立了OpenAI的Sam Altman也心愿升高GPT-3的(炒作)热度:“GPT-3被过分吹捧了。GPT-3(的成就)令人映像粗浅,但其仍然有重大的缺点,会犯愚昧通俗的谬误。AI已筹备好扭转世界,但GPT-3只是(其中)很晚期的(让咱们看到的)一眼。(对于AI)咱们还有很多要挖掘的。”
对于看起来像是人工智能的人工智能,咱们的规范很低。咱们很容易被那些看起来很聪慧的货色坑骗。AI说过的最大的谎话,就是压服世人,AI是存在的。GPT-3是人工智能的一个微小的提高,但它仍然是人工制作的有毛病和限度的工具。