多伦多大学教授杰弗里·辛顿(Geoffrey Hinton)因其对神经网络的开创性钻研而常常被称为“人工智能教父”,最近成为该行业的非官方监管机构。往年春天,他辞去了谷歌的工作,更自在地批评他帮忙创始的畛域。他认为最近像ChatGPT和Bing Chat这样的生成AI的激增是开发中不受管制和潜在危险的减速的迹象。与此同时,谷歌仿佛放弃了以前的克服,因为它用巴德聊天机器人等产品追赶竞争对手。

在本周于多伦多举办的碰撞会议上,Hinton扩充了他的担心。当公司吹捧人工智能是从租赁到运输货物的所有解决方案时,Hinton正在敲响警钟。他不置信好的人工智能会战败坏的人工智能,他认为合乎道德的人工智能可能会付出昂扬的代价。

对人类的威逼

多伦多大学教授杰弗里·辛顿(左)在碰撞2023上发言。

Hinton认为,人工智能的好坏取决于制作它的人,而蹩脚的技术依然能够胜出。“我不置信一个试图阻止坏人工智能的好人工智能可能取得管制,”他解释说。例如,他说,阻止军工联合体生产战斗机器人可能很艰难——公司和军队可能“喜爱”和平,因为伤亡人员是能够轻松更换的机器。尽管Hinton认为大型语言模型(经过训练的人工智能能够产生相似人类的文本,如OpenAI的GPT-4)可能会导致生产力的大幅提高,但他放心统治阶级可能会简略地利用这一点来丰盛本人,从而扩充曾经很大的贫富差距。它将“使富人更富,富人更穷,”辛顿说。

Hinton还重申了他广为人知的观点,即人工智能可能对人类形成生存危险。如果人工智能变得比人类更聪慧,就不能保障人们会持续负责。Hinton说,如果AI决定管制是实现其指标所必须的,那么“咱们就有麻烦了”。对他来说,这些威逼“不仅仅是科幻小说”,必须认真对待。他放心,社会只有在有机会看到杀手机器人“有多可怕”之后才会管制它们。

Hinton补充说,存在很多问题。他认为,偏见和歧视依然是问题,因为扭曲的人工智能训练数据会产生不偏心的后果。算法同样会产生回音室,强化错误信息和心理健康问题。Hinton还放心AI会在这些房间之外流传错误信息。他不确定是否有可能抓住每一个虚伪的说法,只管“将所有假货标记为假货很重要”。

这并不是说Hinton对AI的影响感到失望,只管他正告说,衰弱地应用该技术可能会付出昂扬的代价。人类可能不得不进行“实证工作”来了解人工智能是如何出错的,并避免它篡夺控制权。他补充说,纠正偏见曾经是“可行的”。大型语言模型AI可能会终结回音室,但Hinton认为公司政策的变动尤为重要。

这位传授在答复无关人们因自动化而失去工作的问题时毫不讳言。他认为须要“社会主义”来解决不平等问题,人们能够通过从事可能随时代变动的职业来对冲就业,比方管道(不,他不是在开玩笑)。实际上,社会可能必须做出宽泛的扭转以适应人工智能。

行业放弃乐观

谷歌 DeepMind CBO 科林·默多克在 2023 年碰撞。

早些时候在碰撞的会谈更有心愿。谷歌DeepMind业务主管科林·默多克(Colin Murdoch)在另一场探讨中示意,人工智能正在解决世界上一些最严厉的挑战。在这方面没有太多争议 - DeepMind正在对每种已知的蛋白质进行编目,反抗抗生素抗性细菌,甚至减速疟疾疫苗的工作。他构想了能够解决多个问题的“通用人工智能”,并以谷歌的产品为例。Lookout对于形容照片很有用,但底层技术也使YouTube短视频可搜寻。默多克甚至称过来6到12个月是人工智能开释其后劲的“灯泡时刻”。

Roblox首席科学家摩根·麦奎尔(Morgan McGuire)基本上批准这一点。他认为,游戏平台的生成式人工智能工具“放大了新创作者和新手之间的差距”,使编写代码和创立游戏内资料变得更加容易。Roblox甚至公布了一个开源的AI模型StarCoder,它心愿通过使大型语言模型更容易拜访来帮忙其他人。尽管 McGuire 在探讨中抵赖在扩大和审核内容方面存在挑战,但他认为元宇宙因其创意池而领有“有限”的可能性。

默多克和麦奎尔都表白了与辛顿雷同的担心,但他们的语气显然没有那么危言耸听。默多克强调,DeepMind想要“平安、道德和容纳”的人工智能,并指出专家征询和教育投资就是证据。这位高管坚称,他对监管持凋谢态度,但前提是它容许“惊人的冲破”。反过来,McGuire示意,Roblox总是推出具备内容审核性能的生成AI工具,依附不同的数据集并实际透明度。

对将来的一些心愿

Roblox 首席科学家摩根·麦奎尔在 2023 年碰撞中发表讲话。

只管头条新闻总结了他最近的评论,但Hinton对AI的整体激情在来到谷歌后并没有受到克制。如果他没有放弃,他确信他将致力于多模态人工智能模型,其中视觉、语言和其余线索有助于为决策提供信息。“小孩子不只是从语言中学习,”他说,并暗示机器也能够这样做。只管他对人工智能的危险感到担心,但他置信它最终能够做人类能做的任何事件,并且曾经展现了“一点点推理”。例如,GPT-4 能够自行调整以解决更艰难的难题。

Hinton抵赖,他的碰撞演讲并没有说太多对于人工智能的良好用处,比方应答气候变化。人工智能技术的提高可能是衰弱的,即便放心其影响依然很重要。辛顿坦率地抵赖,只管存在火烧眉毛的伦理和道德问题,但他的激情并没有削弱。“我喜爱这些货色,”他说。“你怎么能不喜爱制作智能的货色呢?”