谷歌AI人工智能我们的原则

54次阅读

共计 2072 个字符,预计需要花费 6 分钟才能阅读完成。

从本质上讲,AI 是学习与应用的计算机程序。它无法解决所有问题,但它有巨大地潜力去深刻地改变我们的生活。在谷歌,我们使用人工智能技术让产品发挥更大的价值——从无垃圾邮件和易编写邮件,到可以与你对话的数字化个人助理,再到那些包含有趣内容的照片,到处都离不开人工智能。

我们认识到,这种强大的技术的产生,对它的开发者和使用者提出了同样巨大的要求。人工智能的开发和使用将在未来许多年内对社会产生重大影响。作为人工智能的领导者,我们有责任去推动这项技术的发展。所以今天,我们宣布了七项原则来指导我们的工作。这些不是理论层面的概念,而是具体的标准,它将积极管理我们的研究和产品开发,并将影响我们的业务决策。

我们承认 AI 这个领域是充满活力和不断发展的,我们将以谦逊的态度对内部员工和外部社会人士作出承诺,并且随着时间的推移,我们愿意调整我们各方面的工作以顺应我们提出的这些原则。

AI 应用的目标

我们将根据下面的标准来评估人工智能的应用程序。我们认为人工智能应该:

1. 对社会有益

新技术的快速扩张越来越深远得影响到我们整个社会。人工智能的进步将在广泛的领域产生变革性影响,包括医疗保健,安全,能源,运输,制造和娱乐。在我们考虑人工智能技术的潜在开发和使用时,我们将考虑广泛的社会和经济因素,只有在我们评估下可能的收益大大超过可预见的风险和负面的情况时,我们才会继续推进我们的研发。

AI 还增强了我们理解大规模内容含义的能力。我们将努力使用 AI 提供高质量和准确的信息,同时继续尊重我们所在国家的文化,社会和法律规范。我们也将继续仔细估量什么时候以非商业方式提供我们的技术。

2. 避免制造或加强不公平的偏见。

AI 算法和数据集可以反映,现实情况中存在许多偏见,所以,强化或减少不公平的偏见也是我们工作的原则之一。我们认识到区分公平与不公平的偏见并不简单,并且偏见也会随着文化和社会的差异而不同。我们将努力避免技术对人们产生不公平的影响,特别是与种族,民族,性别,国籍,收入,性取向,能力以及政治或宗教信仰等敏感特征有关的影响。

3. 构建并测试安全性。

我们将继续开发和应用强有力的安全措施,以避免产生可能对大众造成伤害的意外。我们在设计我们的 AI 系统时会非常谨慎,并在 AI 安全研究的最佳实践下来开发它们。在适当的情况下,我们将在受限环境中测试 AI 技术,并在部署后监控它的操作。

4. 对人负责。

我们在设计人工智能系统时,秉承对人负责的原则,提供适当的反馈与解释的机会,我们的技术也将受到适当的人类指导和控制。

5. 隐私原则。

我们将把我们的隐私原则纳入我们的 AI 技术的开发和使用的过程中。我们将提供给用户通知和同意的机会,鼓励开发具有隐私保护措施的架构,并提供适当的透明度和对数据使用的控制。

6. 坚持高标准的科学追求。

技术创新植根于科学,我们致力于开放探究,严谨,诚信和协作的技术系统。人工智能工具有可能解开生物学,化学,医学和环境科学等关键领域的科学研究和知识领域。我们致力于促进人工智能的发展,我们追求高标准的卓越科学。

我们将与一些利益相关方合作,利用科学严谨的多学科方法,促进该领域的深入发展。我们将通过发布教育材料等方式负责任地分享 AI 知识,使更多人能够开发有用的 AI 应用程序。

7. 提供符合这些原则的用途。

许多技术都是有多种用途的。我们将努力限制可能有害或滥用的人工智能应用程序。在我们开发和部署 AI 技术时,我们将根据以下因素评估技术的用途:

  • 主要用途和可能的用途:技术和应用的主要目的,可能用途,解决方案是否有害于技术应用的方面
  • 性质和独特性:我们是否提供独特或更普遍可用的技术
  • 规模:这项技术的使用是否会产生重大影响
  • Google 参与的本质:我们是否提供通用工具,为客户集成工具或者开发自定义解决方案

我们不会追求的 AI 应用

除上述目标外,我们承诺不会在以下应用领域设计或部署 AI:

1. 导致或可能导致社会被伤害的技术领域。如果存在重大的损害风险,我们仅仅会在我们认为收益远远超过风险的情况下进行,并将其进行适当的安全限制。

2. 武器或其他技术,主要目的是为了间接或直接造成人员伤害。

3. 违反了国际公认的规范收集或使用信息进行监视的技术。

4. 技术的目的违反了广泛接受的国际法和人权原则。

我们要明确的是,虽然我们没有开发用于武器的人工智能,但我们将在许多其他领域继续与政府和军方合作。这些包括网络安全,培训,军事招募,退伍军人医疗保健以及搜索和救援。这些合作非常重要,我们将积极寻找更多方法来增强这些机构的关键工作,并努力服务人员及保持平民安全。

长远的 AI

虽然我们一直秉承这些原则去进行人工智能相关的工作,但我们知道肯定也会有一些异议。随着人工智能技术的进步,我们将与一系列利益相关方合作,采用科学严谨的多学科方法,深刻地推进我们在这个领域的领导力。我们将继续分享我们所学到的用于改进人工智能技术的知识。

我们相信这些原则是我们公司和 AI 未来发展的正确基础。这种方法与 2004 年我们最初的创始人在信中所列的价值观一致。我们明确表示我们打算采取长远的观点。我们当时就说过,并且我们现在也非常相信它。

正文完
 0