关于人工智能:道德与社会问题简报-3-Hugging-Face-上的道德开放性

2次阅读

共计 3177 个字符,预计需要花费 8 分钟才能阅读完成。

🤗 使命: 凋谢和优良的机器学习

在咱们的使命中,咱们致力于推动机器学习 (ML) 的民主化,咱们在钻研如何反对 ML 社区工作并有助于查看危害和避免可能的危害产生。开放式的倒退和迷信能够扩散力量,让许多人个体发展反映他们需要和价值的 AI 钻研工作。尽管 开放性使得更宽泛的观点可能为钻研和整个 AI 贡献力量,但它也面对着较小危险管制的缓和。

因为这些零碎的动静和疾速倒退,对 ML 相干模型进行管控面临着独特的挑战。事实上,随着 ML 模型变得更加先进和可能生成越来越多样化的内容,使得潜在的无害或意外的输入的可能性减少,须要开发弱小的调节和评估策略。此外,ML 模型的复杂性和它们解决的大量数据加剧了辨认和解决潜在偏见和道德问题的挑战。

作为社区主理人,咱们意识到,随着社区模型可能放大对用户和整个世界的危害,咱们肩负着责任。这些危害通常会以一种依赖于情境的形式不平等地影响多数群体。咱们采取的办法是剖析每个情境中存在的缓和关系,并对公司和 Hugging Face 社区进行探讨。尽管许多模型可能会放大危害,尤其是歧视性内容,但咱们正在采取一系列步骤来辨认最高危险模型以及要采取的口头。重要的是,许多不同背景的沉闷观点对于了解、掂量和加重影响不同群体的潜在危害至关重要。

咱们正在开发工具和保障措施,除了改良咱们的文档实际以确保开源迷信可能赋予集体势力,并持续将潜在危害最小化。

道德类别

咱们造就良好的开放式 ML 工作的第一个次要方面是推广 ML 开发的工具和侧面示例,这些工具和示例优先思考其利益相关者的价值和思考。这有助于用户采取具体步骤解决悬而未决的问题,并为 ML 开发中事实上的破坏性做法提出正当的代替计划。

为了帮忙咱们的用户发现和参加与伦理相干的 ML 工作,咱们编制了一组标签。这 6 个高级类别基于咱们对社区成员奉献的空间的剖析。它们旨在为你提供一种通俗易懂的形式来思考道德技术:

  • 谨严的工作特地留神在开发时牢记最佳实际。在 ML 中,这可能意味着查看失败案例 (包含进行偏见和公平性审计),通过安全措施爱护隐衷,并确保潜在用户 (技术和非技术) 理解我的项目的局限性。
  • 被迫工作 反对 应用这些技术和受这些技术影响的人的自主决定。
  • 具备社会意识的工作向咱们展现了技术如何反对社会、环境和迷信工作。
  • 可继续工作着重介绍并摸索使机器学习在生态上可继续倒退的技术。
  • 包容性工作扩充了在机器学习世界中构建和受害的对象范畴。
  • 追根问底的工作揭示了不平等和势力构造,这些不平等和势力构造挑战了社区并让其从新思考本身与技术的关系。

在 https://huggingface.co/ethics 上浏览更多内容

查找这些术语,咱们将在 Hub 上的一些新我的项目中应用这些标签,并依据社区奉献更新它们!

保障措施

对凋谢版本采取“全有或全无”的观点疏忽了决定 ML 模型侧面或负面影响的各种背景因素。对 ML 零碎的共享和重用形式进行更多管制,反对合作开发和剖析,同时升高促成无害应用或滥用的危险; 容许更多的凋谢和参加翻新以共享利益。

咱们间接与贡献者接触并解决了紧迫的问题。为了将其晋升到一个新的程度,咱们正在构建基于社区的流程。这种办法使 Hugging Face 贡献者和受奉献影响的人可能告知咱们平台上提供的模型和数据所需的限度、共享和其余机制。咱们将关注的三个次要方面是: 工件 (artifact) 的起源、工件的开发者如何解决工件以及工件的应用形式。在这方面,咱们:

  • 为咱们的社区推出了一个 报告性能,以确定 ML 工件或社区内容 (模型、数据集、空间或探讨) 是否违反了咱们的 内容指南,
  • 监控咱们的社区探讨板,以确保 Hub 用户恪守 行为准则,
  • 应用具体阐明社会影响、偏见以及预期和超出范围的用例的模型卡,无力地记录咱们下载次数最多的模型,
  • 创立观众疏导标签,例如能够增加到仓库的卡片元数据中的“不适宜所有观众”标签,以防止未申请的暴力和色情内容,
  • 促成对 模型 应用 开放式负责任人工智能许可证 (RAIL),例如 LLM (BLOOM,BigCode)
  • 进行钻研,剖析 哪些模型和数据集最有可能被滥用和歹意应用,或有记录显示滥用和歹意应用。

如何应用报告性能:
单击任何模型、数据集、空间或探讨上的报告图标:

分享你标记此我的项目的起因:

在优先思考凋谢迷信时,咱们逐案查看潜在危害,并提供合作学习和分担责任的机会。当用户标记零碎时,开发人员能够间接通明地回应问题。本着这种精力,咱们要求仓库所有者做出正当的致力来解决报告的问题,尤其是当报告人花工夫提供问题形容时。咱们还强调,报告和探讨与平台的其余局部一样,遵循雷同的沟通标准。如果行为变得怨恨和 / 或唾骂,模型拥有者能够脱离或完结探讨 (参见 行为准则)。

如果咱们的社区将特定模型标记为高风险,咱们会思考:

  • 在趋势选项卡和 Feed 中升高 ML 工件在 Hub 中的可见性,
  • 申请启用门控性能以治理对 ML 工件的拜访 (请参阅 模型 和 数据集 文档)
  • 要求将模型设为公有,
  • 禁用拜访。

如何增加“不适宜所有受众”标签:

编辑 model/data card → 在标签局部增加 not-for-all-audiences → 关上 PR,期待作者合并。合并后,以下标签将显示在仓库中:

任何标记有 not-for-all-audiences 的仓库在拜访时都会显示以下弹出窗口:

单击“查看内容”将容许你失常查看仓库。如果你心愿始终在没有弹出窗口 not-for-all-audiences 的状况下查看标记的仓库 , 能够在用户的 ​Content Preferences 中更改此设置

凋谢迷信须要保障措施,咱们的一个指标是发明一个思考到不同价值取舍的环境。提供模型和培养社区并探讨可能赋予多元群体评估社会影响以及疏导好的机器学习的能力。

你在做保障措施吗?请在 Hugging Face Hub 上分享它们!

Hugging Face 最重要的局部是咱们的社区。如果你是一名钻研人员,致力于使 ML 的应用更平安,尤其是对于凋谢迷信,咱们心愿反对并展现你的工作!

以下是 Hugging Face 社区钻研人员最近的一些示例和工具:

  • John Kirchenbauer, Jonas Geiping, Yuxin Wen, Jonathan Katz, Ian Miers, Tom Goldstein (论文) 的 大语言模型的水印
  • Hugging Face 团队的 生成模型卡片的工具
  • Ram Ananth 的爱护图像免受篡改的 Photoguard

感激浏览 ! 🤗

~ Irene, Nima, Giada, Yacine, 和 Elizabeth, 代表道德和社会惯例人员

如果你想援用这篇博客,请应用以下内容 (按奉献降序排列):

@misc{hf_ethics_soc_blog_3,
  author = {Irene Solaiman and
               Giada Pistilli and
               Nima Boscarino and
               Yacine Jernite and
               Elizabeth Allendorf and
               Margaret Mitchell and
               Carlos Muñoz Ferrandis and
               Nathan Lambert and
               Alexandra Sasha Luccioni
               },
  title = {Hugging Face Ethics and Society Newsletter 3: Ethical Openness at Hugging Face},
  booktitle = {Hugging Face Blog},
  year = {2023},
  url = {https://doi.org/10.57967/hf/0487},
  doi = {10.57967/hf/0487}
}

英文原文: https://huggingface.co/blog/ethics-soc-3

作者: Irene Solaiman, Giada Pistilli, Nima Boscarino, Yacine Jernite, Elizabeth Allendorf

译者: innovation64

排版 / 审校: zhongdongy (阿东)

正文完
 0