(资料图片仅供参考)

近日,ChatGPT的现象级爆火不仅引发了国内外的开发和应用热潮,也在加快推进人工智能市场的发展。但同时,人工智能也令网络安全的课题被进一步关注。对此,专家建议,探索分级治理和沙盒监管模式,并成立伦理专家委员会。

上海人工智能研究院副总工程师沈灏2月8日在接受上证报记者采访时表示,ChatGPT的火爆是一个从量变到质变的结果,为了形成质变,无论从算力硬件、核心技术、数据挖掘、人才团队、投资环境等各方面都需要关注,国内厂商需要逐步把这些方面的欠缺逐步追赶补上。鼓励科技创新企业持续下沉,将人力、技术和资本等核心资源更多地投入到行业基础设施和平台,对人工智能底层能力长期投入,系统性地提升整体能力。

沈灏认为,国内厂商需要更多地寻找到现实主义和理想主义的平衡点,从较强的应用场景向通用能力发展。

人工智能虽然可以在多方面提供服务,但也可能被不良目的滥用,在安全方面存在一定风险。

对此,沈灏建议,从政府监管角度来看,一是,建立人工智能领域轻微违法行为免罚清单。即对科学家进行“松绑”,技术在可控的程度内拥有适当的试错机会,避免法律条款“一刀切”。二是,政府主动探索分级治理和沙盒监管的模式。根据不同风险等级采取不同的管理模式,尤其是允许中低风险领域先行先试。三是,建立行业的专业人才机构——人工智能伦理专家委员会。汇聚行业专家、大咖,让更专业的人集思广益、献计献策。

(文章来源:上海证券报)

推荐内容