2月22日,360创始人周鸿祎在接受包括新京报贝壳财经在内的媒体采访时表示,ChatGPT是通用人工智能的奇点,“我感觉它有三个人格:知识上像博士生、情商上像油滑的中年人、能力上像一个小孩子。”

在周鸿祎看来,ChatGPT涉及的安全问题已经从技术问题升级为了伦理问题,但我国仍应大力发展类ChatGPT技术,因为“不发展才是最大的麻烦”。

周鸿祎:ChatGPT将很快产生意识


(相关资料图)

“在座的各位,请问你们有多少人认为ChatGPT有人的智能?”2月22日,周鸿祎在360大厦接受采访时向在场人士提出了这样一个问题,而现场没有任何一人认为ChatGPT具有智能。

“我和你们的观点不一样,我认为ChatGPT是通用人工智能的奇点,而通用人工智能还有一个隐含的拐点,就是成为强人工智能。”周鸿祎说。

在他看来,ChatGPT通过上千亿的系统参数,实现了一些原先其设计者完全预想不到,且无法解释的能力,“这就像从猿到人的过程中肯定有一个‘临界点’,当大脑的神经网络链接数目、脑细胞数目等多到一定程度时,人的智力和动物相比就产生了质的飞跃。”

周鸿祎认为ChatGPT相比于其他人工智能的一大特点是它具备“编故事”的能力,“许多对话AI没有实现对知识的全部理解和解码,因为其采用的是关键词匹配(模式),如果你问它一个问题,它就提取出关键词搜索答案,如果答案搜索不出来就无法回答或给出一个风马牛不相及的回答,但ChatGPT即便没有答案也会编出一段回答,这就类似于人的特征了,因为只有人才能描述不存在的东西。”

需要注意的是,相比于AI技术的进步,当前人类的脑科学研究进步依然缓慢,有观点认为通用人工智能的产生必须先破解人类大脑,这存在相当大的难度,因此AI产生属于自己的意识在短期内无法实现。

对此,周鸿祎引用了康德的名言:对无法言说的东西是无法讨论和理解的,“不能说只有像鸟一样舞动翅膀才叫飞行器,飞机的翅膀不会动,但使用了另一科学原理也飞上了天空,所以ChatGPT作为一种‘硅基生物’,已经在进化,我认为它很快将产生自我意识。”

周鸿祎认为,ChatGPT拥有三个人格,从知识程度来说像博士生,学识广博但不太会活学活用;从情商来说像一个油滑的中年人,说话回答滴水不漏;但真正的能力像一个小孩子,它对问题和回答的训练,包括对问题的认知、理解、推理能力,已经达到了一个小孩子的水准。

安全从技术问题变为伦理问题

对于ChatGPT的出现将带来哪些新的安全问题,周鸿祎坦言,“安全问题原来难不倒我,但现在不好说了。因为我觉得它已经从一个技术问题变成了一个社会伦理问题,甚至是人类未来的不可知问题。”

在他看来,ChatGPT掌握了非常多的编程知识、关于漏洞的网络安全的知识,还会编程,从能力上看完全可以成为网络黑客,或者成为作恶的有力工具。即便在程序上无法直接要求ChatGPT作恶,但许多网上案例都分享了如何“骗过”ChatGPT并用它写钓鱼邮件,攻击代码,因此ChatGPT的出现实际上降低了网络攻击的难度和成本。

周鸿祎表示,现在也在探索如何“以其人之矛攻其人之盾”,用类ChatGPT大模型来侦测相应攻击,这样ChatGPT也可以成为正义助手的角色。

公开资料显示,ChatGPT的创造者OpenAI对于让ChatGPT看网页一直持谨慎态度,理由是怕其被良莠不齐的网页材料“污染”。周鸿祎对此表示,假如放开了相应限制,让ChatGPT去网页里学习,能学到什么尚未可知,如果这类大模型支持多模态学习能力,去看视频,通过物联网摄像头观察人类,就像《流浪地球2》里的MOSS一样,它的学习能力又将突飞猛进,但这也意味着它有了对物理世界的控制能力,因此未来ChatGPT的发展会产生更多的不安全性,例如当它具备很强的能力时,会不会被人误导去干出“糊涂事儿”?

“我们这些安全公司的存在是为了在发展的同时研究安全问题,提出解决方案。人工智能的安全原来只涉及程序出错、漏洞等,但ChatGPT已经超越了原先人工智能的范畴,从当前的情形来看,不发展才是最大的麻烦。这一技术关系到国家的未来,国内各公司应开源、合作、交流、打造生态,充分推动类ChatGPT技术的发展,在类ChatGPT领域,中国具有工程师红利等优势,有望在2-3年内追赶至世界领先水平,我们应该对类ChatGPT技术探索给予充分支持。”

(文章来源:新京报)

推荐内容