一些中国边疆和香港的人工智能(AI)专家响应寰球科技老将的呐喊,催促暂停开发比 GPT- 4 更先进的 AI 技术,因为他们认为以后的停顿速度“过快”可能会带来危险。
上个月,钻研人类社会技术危险的“生命将来研究所”(FLI)起草了一封公开信,特斯拉的 Elon Musk、苹果联结创始人 Steve Wozniak 和历史学家 Yuval Harari 等上万人署名。 该信称以后的 AI 比赛很危险,并呐喊建设独立监管机构,确保将来的零碎可能平安部署。
只管一些从业者批评该信鼓动了对 AI 将来的恐怖,但几位驻扎在中国边疆和香港的专家对此示意反对,认为有必要解决对 OpenAI(微软反对)开发的 GPT- 4 大型语言模型(LLM)的 AI 聊天机器人 ChatGPT 的担心。
自 ChatGPT 于去年 11 月公布以来,无关 AI 是否有一天会超过人类的争执始终存在。
武汉大学人工智能研究所传授蔡恒进示意,ChatGPT 的呈现突破了那些认为这种状况永远不会产生的争执。
蔡恒进在周日承受《南华早报》采访时说道:“一个衡量标准是,人工智能会以何种速度和弱小水平增长到超出咱们设想。有些人认为它会迟缓增长,咱们还有几十年甚至几百年的工夫。但事实并非如此……咱们只有几年的工夫,因为咱们(人工智能)的提高速度太快了。”
蔡恒进的担心失去了许多其余签订 FLI 公开信的中国专家反对。
南京理工大学副教授张轶哲和亚马逊退休老将、基于云的软件即服务初创公司 Tricorder Observability 的首席执行官赵亚雄都表白了对人工智能可能带来的平安挑战的担心,并呐喊增强监管。
只管张轶哲示意他并不完全同意公开信中的所有内容,但他仍说:“我签订了 FLI 公开信以反对提出的与人工智能相干的平安问题,心愿能有更好的零碎协调大公司间的 LLM 开发流动。”
张传授示意:“GPT- 4 和更大的模型将开释生产力降级,导致许多人就业。如何平安、正当和道德地开发和应用超大语言模型是咱们须要关注的问题。”
Tricorder 的赵总认为:最近的趋势是让 ChatGPT 评分 AI 聊天机器人技术的钻研论文,这是一个危险的信号,表明咱们曾经开始让 AI 来评判人类的工作。
香港大学工程学院副院长 Alfonso Ngan(也签订该公开信) 示意:学校将要求学生在一个学期内不应用这项技术,以便机构有工夫制订如何在学术环境中适当利用它的共识立场。
“咱们不是永远禁止这项技术,”Ngan 说道,弱小的人工智能如 ChatGPT 对教育部门形成了难题。
他说:“一方面,咱们心愿学生能接触到 AI 技术并进行学习,甚至须要传授这些技术,但另一方面,教育部门须要工夫来进行调整,特地是在评估、家庭作业和工作方面。”
Ngan 和其余签订者,包含 Tricorder 的赵总和专一于物联网的守业公司 Edgenesis 的创始人陈永立,都示意 ChatGPT 的力量不能被鄙视。
蔡传授指出:“ChatGPT 的训练资料是人类的语言资料,所以你不能简略地祷告当 AI 变得更聪慧、更弱小时,它仍会对咱们人类怀有同情心,依然会放弃感性,并且只继承好的货色而不是人类的恶性实质。”“咱们能够利用咱们当初还有的工夫,在元宇宙中与它并肩进化,并领导其成为好的货色。”