2022 年 ,由美国 OpenAI 公司开发的聊天机器人 ChatGPT 出道即巅峰。这款被业界概括为聊天机器人+搜寻工具+文本发明工具的组合,一时间风靡寰球。

ChatGPT在短短两个月内沉闷用户数就冲破了1亿,成为了有史以来用户增长最快的应用程序之一,并且随着其性能的日益完善,ChatGPT已大面积融入了人们的日常生活和工作,成为许多企业和集体必不可少的工具。(直呼666~~~)

但在受到多方赞美的同时,社会对于ChatGPT背地数据和网络安全的担心也日渐增长。多地政府及大型企业都已开始警觉ChatGPT带来的潜在威逼

● 中国成为第一个针对生成式人工智能立法的国家。我国网信办于2023年4月11日起草并颁布了《生成式人工智能服务治理计划》(征求意见稿)。
意大利成为首个禁止拜访ChatGPT的国家。该禁令是由ChatGPT一度呈现破绽造成用户数据泄露引起的,波及约1.2%的ChatGPT Plus用户的姓名、邮箱地址、付款地址、信用卡后四位数字等。
● 金融企业对ChatGPT的应用接连作出应答。早在2月,美国银行、JP摩根大通、德意志银行、包含日本的软银、瑞穗金融团体等金融企业接连限度或禁止ChatGPT在工作中的应用。
● 科技行业企业应用ChatGPT产生数据泄露事件。手机巨头三星曾在ChatGPT应用过程中间断产生三起材料外泄事变,泄露了包含半导体设施测量源代码、产品良率程序代码、外部会议纪要等机密信息。
● 数据安全隐患成为各国“围剿”ChatGPT的源头。德国示意将效仿意大利,以数据安全方面的担心为由,屏蔽ChatGPT。日本、加拿大、法国和爱尔兰方面,也纷纷表示将增强对 ChatGPT的监管,必要状况下可能会追寻意大利的脚步。

事实上,在意大利数据泄露事件前,OpenAI 公司始终默认将用户输出的内容用作训练数据,获取了大量敏感数据。美国外乡企业亚马逊、沃尔玛,已向员工发出通知,正告员工不要向ChatGPT的AI工具共享敏感信息。之所以如此,就是因为发现 ChatGPT 生成的内容与其窃密数据高度类似,这显然是有员工将窃密数据输出 ChatGPT 所致。

举一个典型的场景:

员工小Y将公司代码库里的源代码输出ChatGPT去查看并修复Bug,即便OpenAI公司明确示意了不会滥用用户数据,但竞对公司也仍旧能通过奇妙的发问形式绕开 ChatGPT 的过滤机制,获取小Y公司的源代码数据。这种模式的敏感数据泄露将会对公司平安与业务带来微小的危险。

此外,ChatGPT还会升高网络犯罪分子的准入门槛,更容易生成攻打代码,对企业外部进行钓鱼或撞库攻打,威逼企业信息安全。

在多方压力下,OpenAI 公司已为ChatGPT增加了“禁止用用户数据训练人工智能”的选项,但寄托于内部条件治理对企业而言究竟并非是“上上之策”。

企业在这科技反动浪潮中该如何“自我进攻”,该当采纳怎么的安全措施来实现信息安全与数据安全

别着急!亿格云枢 “性能上新”:帮助企业解决ChatGPT应用带来的数据安全难题!!!

无效实现:

实时监测复制粘贴敏感数据行为
实时监测敏感数据外发


模仿复制敏感数据(源代码)到ChatGPT的过程

数据泄露全链路行为,无论是截图还是文字,都会被跟踪监测到,以便前期的审计溯源,避免企业外部员工将敏感数据上传到ChatGPT产生信息安全事件,最大水平上升高企业信息泄露危险!

行为审计实时监测敏感数据复制到ChatGPT的过程

不可否认的是,任何新技术的迭代都会推动产业与社会的改革与提高,但更要辩证对待任何事物都具备双面性!咱们在享受ChatGPT带来工作效率晋升的同时,更要长于使用AI这一变革级的稀缺资源,进一步布局加强企业的平安能力,让科技更好的为生存与工作服务!