自 2019 年以来,由政府发动的无关 AI 的倡导在整个亚太地区激增。这些动作包含建设跨域 AI 道德委员会,负责任应用 AI 的指南和框架,以及其余动作,例如财务和技术支持。这些动作大多数都基于该国各自的数据隐衷和爱护法案。
这分明地表明,在利用人工智能作为数字经济的次要推动力时,政府认为有必要扩充现有法规。迄今为止,所有动作都是被迫性质的,但已有迹象表明,现有数据隐衷和爱护法律将失去更新和扩大,包含人工智能。为此,数据和技术治理打算必须立刻倒退。
数据和技术治理必须增强以拥抱道德和危险
传统上,数据治理和与数据相干的技术治理始终侧重于主数据管理,数据品质和数据保留等主题。
随着隐衷法和数据保护法的衰亡,例如欧盟的《通用数据保护条例》(GDPR)和新加坡的《集体数据保护法》(PDPA),数据治理的范畴已扩充到包含数据隐衷,集体数据保护和数据主权。这曾经将数据治理从经营角点转移到了法规听从性和可执行法律的关注点。
随着 AI 的倒退,大规模生产部署、数据和技术治理必须再次增强,并包含数据和 AI 道德规范以及 AI 风险管理。
呐喊:立刻评估治理 AI 危险
就像之前的网络安全危险一样,监管动作和消费者需要独特推动了 AI 风险管理成为公司议程的重中之重。立刻评估数据和技术治理打算,以发现负责任地应用数据和 AI 方面的差距和成熟度挑战,为 AI 风险管理做好筹备。
企业应启动单干和跨职能打算,包含治理、危险、企业社会责任和道德规范。最终,理解如何建设对客户、合作伙伴和员工的信赖,成为负责任地应用数据和 AI 的根底,并将这种信赖转化为竞争劣势。