共计 2186 个字符,预计需要花费 6 分钟才能阅读完成。
多伦多大学教授杰弗里·辛顿(Geoffrey Hinton)因其对神经网络的开创性钻研而常常被称为“人工智能教父”,最近成为该行业的非官方监管机构。往年春天,他辞去了谷歌的工作,更自在地批评他帮忙创始的畛域。他认为最近像 ChatGPT 和 Bing Chat 这样的生成 AI 的激增是开发中不受管制和潜在危险的减速的迹象。与此同时,谷歌仿佛放弃了以前的克服,因为它用巴德聊天机器人等产品追赶竞争对手。
在本周于多伦多举办的碰撞会议上,Hinton 扩充了他的担心。当公司吹捧人工智能是从租赁到运输货物的所有解决方案时,Hinton 正在敲响警钟。他不置信好的人工智能会战败坏的人工智能,他认为合乎道德的人工智能可能会付出昂扬的代价。
对人类的威逼
多伦多大学教授杰弗里·辛顿(左)在碰撞 2023 上发言。
Hinton 认为,人工智能的好坏取决于制作它的人,而蹩脚的技术依然能够胜出。“我不置信一个试图阻止坏人工智能的好人工智能可能取得管制,”他解释说。例如,他说,阻止军工联合体生产战斗机器人可能很艰难——公司和军队可能“喜爱”和平,因为伤亡人员是能够轻松更换的机器。尽管 Hinton 认为大型语言模型(经过训练的人工智能能够产生相似人类的文本,如 OpenAI 的 GPT-4)可能会导致生产力的大幅提高,但他放心统治阶级可能会简略地利用这一点来丰盛本人,从而扩充曾经很大的贫富差距。它将“使富人更富,富人更穷,”辛顿说。
Hinton 还重申了他广为人知的观点,即人工智能可能对人类形成生存危险。如果人工智能变得比人类更聪慧,就不能保障人们会持续负责。Hinton 说,如果 AI 决定管制是实现其指标所必须的,那么“咱们就有麻烦了”。对他来说,这些威逼“不仅仅是科幻小说”,必须认真对待。他放心,社会只有在有机会看到杀手机器人“有多可怕”之后才会管制它们。
Hinton 补充说,存在很多问题。他认为,偏见和歧视依然是问题,因为扭曲的人工智能训练数据会产生不偏心的后果。算法同样会产生回音室,强化错误信息和心理健康问题。Hinton 还放心 AI 会在这些房间之外流传错误信息。他不确定是否有可能抓住每一个虚伪的说法,只管“将所有假货标记为假货很重要”。
这并不是说 Hinton 对 AI 的影响感到失望,只管他正告说,衰弱地应用该技术可能会付出昂扬的代价。人类可能不得不进行“实证工作”来了解人工智能是如何出错的,并避免它篡夺控制权。他补充说,纠正偏见曾经是“可行的”。大型语言模型 AI 可能会终结回音室,但 Hinton 认为公司政策的变动尤为重要。
这位传授在答复无关人们因自动化而失去工作的问题时毫不讳言。他认为须要“社会主义”来解决不平等问题,人们能够通过从事可能随时代变动的职业来对冲就业,比方管道(不,他不是在开玩笑)。实际上,社会可能必须做出宽泛的扭转以适应人工智能。
行业放弃乐观
谷歌 DeepMind CBO 科林·默多克在 2023 年碰撞。
早些时候在碰撞的会谈更有心愿。谷歌 DeepMind 业务主管科林·默多克(Colin Murdoch)在另一场探讨中示意,人工智能正在解决世界上一些最严厉的挑战。在这方面没有太多争议 – DeepMind 正在对每种已知的蛋白质进行编目,反抗抗生素抗性细菌,甚至减速疟疾疫苗的工作。他构想了能够解决多个问题的“通用人工智能”,并以谷歌的产品为例。Lookout 对于形容照片很有用,但底层技术也使 YouTube 短视频可搜寻。默多克甚至称过来 6 到 12 个月是人工智能开释其后劲的“灯泡时刻”。
Roblox 首席科学家摩根·麦奎尔(Morgan McGuire)基本上批准这一点。他认为,游戏平台的生成式人工智能工具“放大了新创作者和新手之间的差距”,使编写代码和创立游戏内资料变得更加容易。Roblox 甚至公布了一个开源的 AI 模型 StarCoder,它心愿通过使大型语言模型更容易拜访来帮忙其他人。尽管 McGuire 在探讨中抵赖在扩大和审核内容方面存在挑战,但他认为元宇宙因其创意池而领有“有限”的可能性。
默多克和麦奎尔都表白了与辛顿雷同的担心,但他们的语气显然没有那么危言耸听。默多克强调,DeepMind 想要“平安、道德和容纳”的人工智能,并指出专家征询和教育投资就是证据。这位高管坚称,他对监管持凋谢态度,但前提是它容许“惊人的冲破”。反过来,McGuire 示意,Roblox 总是推出具备内容审核性能的生成 AI 工具,依附不同的数据集并实际透明度。
对将来的一些心愿
Roblox 首席科学家摩根·麦奎尔在 2023 年碰撞中发表讲话。
只管头条新闻总结了他最近的评论,但 Hinton 对 AI 的整体激情在来到谷歌后并没有受到克制。如果他没有放弃,他确信他将致力于多模态人工智能模型,其中视觉、语言和其余线索有助于为决策提供信息。“小孩子不只是从语言中学习,”他说,并暗示机器也能够这样做。只管他对人工智能的危险感到担心,但他置信它最终能够做人类能做的任何事件,并且曾经展现了“一点点推理”。例如,GPT-4 能够自行调整以解决更艰难的难题。
Hinton 抵赖,他的碰撞演讲并没有说太多对于人工智能的良好用处,比方应答气候变化。人工智能技术的提高可能是衰弱的,即便放心其影响依然很重要。辛顿坦率地抵赖,只管存在火烧眉毛的伦理和道德问题,但他的激情并没有削弱。“我喜爱这些货色,”他说。“你怎么能不喜爱制作智能的货色呢?”