关于数据库:生成式-AI机会与风险并存企业该如何取舍

2次阅读

共计 3335 个字符,预计需要花费 9 分钟才能阅读完成。

作者 | 李晨

编辑 | Debra Chen

Gartner 最近对寰球 2,500 名高管进行的一项考察发现,近一半(45%)的人示意,ChatGPT 的宣传促使他们减少人工智能(AI)投资。调查报告称,70% 的高管示意他们正在考察人工智能的应用,而 19% 的高管正在试点或曾经在生产中部署人工智能。

Gartner 发现,大量组织正在应用 ChatGPT 等生成式 AI 来改良宣传内容或者生成代码。这种技术能够加强使用者的能力,并能够自主执行业务和 IT 流程,生成式 AI 能够潜在地取代或补充多项工作工作。考察发现,68% 的高管认为生成式 AI 的益处大于危险,而只有 5% 的人认为危险大于收益。然而,随着应用水平的不断深入,高管们可能会开始扭转他们的观点。

Gartner 给出了倡议和正告:“最后对新技术的激情可能会让位于对危险和施行挑战的更严格的管控,组织在开始开发和部署生成式 AI 时,可能会遇到许多信赖、危险、平安、隐衷和道德问题。”

ChatGPT,文心一言,Bard 或通义千问等工具应用先进的机器学习技术来生成简单的文本。生成式 AI 的益处包含易于培训和定制化、升高经营老本和 7 ×24 全天候服务。然而,只管有这些益处,但像 ChatGPT 这样的生成式 AI 工具的确存在着捏造信息、泄露隐衷和错误引导等危险。

生成式 AI 如何提供业务价值?

生成式 AI 是一种特定自然语言解决(NLP)工具,该工具以相似人类的对话形式生成对用户提醒或问题的响应。生成式 AI 剖析和“学习”各种类型的数据:文本、音频、图像,并生成相似人类的输出答案。

在用于客户服务目标的生成式 AI 的场景下,组织通常将该工具集成到基于文本或语音的聊天机器人中,用于实现以下工作:

  • 答复客户无关产品或服务的问题。
  • 自动化实现订单,换货和退货。
  • 提供多种语言服务。
  • 将用户疏导至 FAQ 和服务团队寻求帮忙。

依据企业业务的不同,客户服务用例可能会有很大差别。然而 ChatGPT 这类生成式 AI 工具的确帮忙企业晋升了 AI 机器人对客户服务的效率和准确率。

生成式 AI 在企业应用中的危险

只管有益处,但像 ChatGPT 这类的生成式 AI 工具也有不少毛病,甚至是致命问题。因而,企业在将重要业务控制权移交给 AI 机器人之前必须理解以下危险:

  1. 捏造信息

生成式 AI 机器人的有用性取决于它们领有的信息。在某些状况下,人工智能可能会谬误地解释信息,或者应用不充沛或过期的信息。如果人工智能零碎学习到不精确或捏造的数据,它可能会对用户问题产生不正确的答复。

生成式人工智能聊天机器人还能够发明连贯的废话,自信而雄辩地做出虚伪陈说。在这种状况下,生成式 AI 工具会生成随机且不精确的输入,这会使用户感到困惑,捏造的信息也可能导致用户对该工具失去信赖,从而升高其实用性。

  1. 隐衷泄露危险

隐衷泄露危险是指用户不知情状况下,集体的私密信息被泄露,或者通过其余信息被 ChatGPT 推断进去的隐衷信息。在应用 ChatGPT 过程中,集体、企业、甚至国家的机密信息都可能泄露。

个人信息的泄露可能会对集体的心理健康、人身和财产平安造成影响。而国家或企业商业秘密则往往只有多数人可能获悉,这些信息的泄露和流传可能会危及国家和企业的平安。此外,即便用户未间接泄露私密信息,ChatGPT 在一直学习的过程中,也可能自行推断出这些信息,减少了隐衷信息被推导进去的危险。

  1. 有偏见的信息

人工智能模型能够学习辨认和形容对象,以区别很多类似的名字或外观,但 ChatGPT 应用和剖析的数据是来自数十亿个网页的数据。因而,在互联网上存在的种族或政治偏见能够被夹带到工具的输入中。

如果一个企业的生成式 AI 聊天机器人产生种族主义、歧视或政治偏见的回应,该企业的品牌可能会受到重大侵害。

  1. 不足同理心

ChatGPT 能够在其回复内容中模仿人类口气和行为,但它依然不足实在人类的同情心和同理心。如果一个愤恨的客户与一个不足真正人类情感的 AI 机器人互动,他们可能会变得越来越丧气和愤恨。

  1. 平安问题

与任何网络连接技术一样,一些组织或集体能够机密地将虚伪信息插入生成人工智能零碎。例如,他们可能会插入受恶意软件感化的链接或网络钓鱼做法,为 AI 提供向用户传递恶意软件和网络钓鱼信息的机会。

企业应该应用生成式 AI 吗?如何应用更稳当?

在这个 AIGC 时代,生成式 AI 会极大的扭转社会运行形式和企业商业运行逻辑。客户服务和征询行业、金融和银行业、制造业、教育行业、翻译、影视制作、图像服务等行业都会迎来天翻地覆的变动。咱们不要因噎废食,因为生成式 AI 有这样或那样的危险就不去应用,这样会使集体或企业错过技术革新而失去竞争力。然而,也须要在应用时进行粗疏的布局和标准的治理。倡议企业在应用生成式 AI 时遵循以下准则:

  1. 用户教育和安全意识晋升:

进步用户的教育和安全意识是确保安全应用生成式 AI 的重要措施。平台和开发者应该提供明确的使用指南和行为准则,向用户解释生成式 AI 的工作原理、其生成内容的特点以及潜在的危险。推广数字素养和信息鉴别能力,帮忙用户更好地分别虚伪信息、不当行为和歹意攻打。开发者能够发展宣传流动、举办培训和研讨会等,让用户理解生成式 AI 的利用场景、限度和危险。通过减少用户对生成式 AI 的认知,能够帮忙他们更加审慎地应用,并被动参加保障应用生成式 AI 的安全性。

  1. 私有化部署生成式 AI 大模型,并尽量应用自有残缺数据进行二次训练,而非间接采纳内部服务或现成大模型:

对生成式 AI 进行无效的训练和筛选是必要的,训练数据的品质和多样性对于生成出精确、有用的答复至关重要。通过对训练数据进行筛选和审核,去除虚伪、无害或误导性的内容,可能进步生成式 AI 的可信度和安全性。通过外部残缺数据的二次训练,会让生成式 AI 更懂理论业务场景和正确的应答内容,提供给用户的反馈信息就会更精确,针对性更强。

  1. 欠缺管理策略,遵循国家政策或法律法规,防止产生道德、隐衷或平安问题:

施行内容审核和监管机制是确保生成式 AI 平安应用的要害一环。平台和使用者应该增强对生成内容的监控和审核,及时发现和处理不当的舆论或内容。建设机制,使用户可能报告无害或违规内容,从而保障平台的平安和用户的权利。

如何私有化部署大模型并疾速训练?

面对以上问题,有不少企业心愿训练本人的私有化 GPT 大模型,然而不菲的硬件投入老本和工夫成为最大的妨碍,让很多尝试拥抱生成式 AI 的企业望而生畏。如何能用最小的代价,疾速训练出平安、精确、实用的 GPT 大模型?Apache 顶级开源社区海豚调度 - DolphinScheduler 给出了答案。

Apache DolphinScheduler 是一个 Star 超过 1 万的大数据和 AI 的调度工具,它是 Apache 软件基金会旗下的顶级我的项目,这意味着你能够收费应用它,也能够间接批改代码而不必放心任何商业问题。在 AIGC 畛域,DolphinScheduler 的指标是让任何对 GPT 大模型有需要的集体或者企业,都能享受到领有更“懂”本人的模型的乐趣,每个人或企业都有权力和能力去塑造本人的 AI 助手,而 DolphinScheduler 可见即所得的工作流程为此提供了可能。

无论你是业界专家,寻求用专属于你的数据来训练模型,还是 AI 爱好者,想尝试了解并摸索深度学习模型的训练,DolphinScheduler 都将为你提供便捷的服务。它为你解决了简单的预处理、模型训练、优化等步骤,只需 1 - 2 个小时几个简略的操作,加上几十小时的运行工夫,就能够构建出更“懂”你的定制化 ChatGPT 大模型。

在这个以数据和技术驱动的世界中,领有一个专属的生成式 AI 模型具备无法估量的价值。随着人工智能和深度学习的日益倒退,咱们正处在一个可塑造个性化 AI 助手的时代。而训练和部署属于本人的生成式 AI 模型,能够帮忙咱们拿到更精确,更平安、更可信的后果,更好地利用 AI 实现业务价值。

总体而言,自训练和部署生成式 AI 模型能够帮忙你更好地爱护数据安全和隐衷、满足特定的业务需要、节约技术老本,同时通过工作流工具如 DolphinScheduler 使训练过程自动化,能够减速这一工作的实现。更多信息,请 拜访海豚调度官方网站 https://dolphinscheduler.apache.org/ 或者关注微信公众号 “海豚调度”

本文由 白鲸开源科技 提供公布反对!

正文完
 0